Tecnología 5G

¿Qué es la tecnología 5G?

Proyecto de inclusión digital en la Amazonía peruana. Las áreas rurales con menos infraestructura probablemente se rezagarán en el desarrollo 5G. Crédito de la fotografía: Jack Gordon para USAID / Digital Development Communications.
Proyecto de inclusión digital en la Amazonía peruana. Las áreas rurales con menos infraestructura probablemente se rezagarán en el desarrollo 5G. Crédito de la fotografía: Jack Gordon para USAID / Digital Development Communications.

Nuevas generaciones de tecnología llegan casi cada 10 años. Se espera que 5G, o la quinta generación de tecnologías móviles, sea 100 veces más rápida y tenga 1000 veces más capacidad que generaciones anteriores, facilitando así una conectividad rápida y confiable, un flujo de datos más amplio y la comunicación máquina a máquina. 5G no está diseñado principalmente para conectar personas, sino más bien aparatos. 2G facilitó el acceso a las llamadas de voz y el texting, 3G impulsó los servicios de videos y de redes sociales, y 4G hizo realidad el streaming digital y las aplicaciones que hacían un gran uso de los datos. 5G apoyará los hogares inteligentes, video en 3D, la nube, servicios médicos remotos, la realidad virtual y aumentada, y la comunicación máquina a máquina para la automatización de la industria. Sin embargo, mientras Estados Unidos, Europa y la región Asia Pacífico hacen la transición de 4G a 5G, muchas otras partes del mundo siguen dependiendo fundamentalmente de las redes 2G y 3G, y hay aún más desigualdades entre la conectividad rural y la urbana. Vea en este video una introducción a la tecnología 5G y tanto el entusiasmo como la cautela que la rodean.

¿Qué queremos decir con “G?”

“G” se refiere a generación e indica un umbral para un cambio significativo en la capacidad, arquitectura y tecnología. Estas designaciones son hechas por la industria de telecomunicaciones a través de la autoridad que fija estándares a la que se conoce como 3GPP. 3GPP crea nuevas especificaciones técnicas aproximadamente cada 10 años, de ahí el uso del término “generación”. Un nombre alternativo es la sigla IMT (que quiere decir International Mobile Telecommunications), junto con el año en que el estándar se hizo oficial. Por ejemplo, usted podría ver que 3G también es referido como IMT 2000.

1GHizo posibles las llamadas telefónicas analógicas; trajo los aparatos móviles (movilidad)
2GPermitió las llamadas telefónicas y mensajes digitales; hizo posible la adopción masiva y eventualmente posibilitó los datos móviles (2.5G)
3GHizo posibles las llamadas telefónicas mensajería y acceso a internet
3.5GPermitió una internet más fuerte
4GPermitió una internet más rápida (mejor streaming de video)
5G“La Internet de las Cosas”

Permitirá que los artefactos se conecten entre sí
6G“La Internet de los Sentidos”

Poco se sabe aún

Este video presenta un panorama simplificado de 1G-4G.

Tienda de celulares en Tanzania. La tecnología 5G requiere el acceso a smartphones y aparatos compatibles con la tecnología 5G. Crédito de la fotografía: Riaz Jahanpour para USAID Tanzania / Digital Development Communications.
Tienda de celulares en Tanzania. La tecnología 5G requiere el acceso a smartphones y aparatos compatibles con la tecnología 5G. Crédito de la fotografía: Riaz Jahanpour para USAID Tanzania / Digital Development Communications.

En muchos países en vías de desarrollo hay una brecha entre el estándar celular al que los usuarios se suscriben y el que en realidad usan: muchos se suscriben a 4G pero, como no se desempeña como se ofrece, pueden regresar a 3G. Este cambio o “fallback” (repliegue) no siempre es evidente para el consumidor, y podría ser más difícil de notar al compararse la 5G con redes anteriores.

No es seguro que la tecnología necesariamente funcione como se ha prometido, incluso cuando la infraestructura de 5G esté instalada y los usuarios tengan acceso a través de artefactos capaces: es en efecto probable que no. 5G seguirá dependiendo de tecnologías 3G y 4G, y las compañías telefónicas seguirán operando paralelamente sus redes 3G y 4G.

¿Cómo funciona la tecnología 5G?

Son varios los indicadores claves de rendimiento (KPI) que 5G espera alcanzar. Ella fundamentalmente fortalecerá las redes de celulares usando más frecuencias de radio, conjuntamente con nuevas técnicas para fortalecer y multiplicar los puntos de conexión. Esto quiere decir una conexión más rápida: reducir el tiempo entre un clic en su aparato y el tiempo que le toma ejecutar dicho comando. Esto a su vez permitirá que más aparatos se conecten entre sí a través de la internet de las cosas.

Entendiendo el espectro

Para entender 5G es importante entender un poco del espectro electromagnético radial. Este video presenta un panorama de cómo es que los teléfonos celulares emplean dicho espectro.

5G traerá consigo servicios más rápidos y robustos usando más espectro. Para establecer una red de 5G, es necesario asegurar por adelantado el espectro para dicho fin. Los gobiernos y compañías tienen que negociarlo, usualmente subastando “bandas”, a veces por cantidades gigantescas. La asignación del espectro puede ser un proceso político sumamente complicado. Muchos temen que 5G, que requiere un montón del espectro, amenace la así llamada “diversidad de redes”, esto es la idea de que el espectro debiera usarse para diversos fines entre el gobierno, las empresas y la sociedad.

Para mayor información acerca de la asignación del espectro, consúltese Innovations in Spectrum Management una publicación de Internet Society (2019).

Ondas milimétricas

5G espera aprovechar nuevas bandas no utilizadas en la cima del espectro radial, a las que se conoce como ondas milimétricas (mmwaves). Éstas se encuentran mucho menos atiborradas que las bandas inferiores, lo que permite efectuar transferencias de datos más rápidas. Pero las ondas milimétricas son complicadas: su rango máximo es de aproximadamente 1.6 km, y los árboles, muros, lluvia y neblina pueden limitar la distancia por la que la señal viaja a apenas 1 km. En consecuencia, 5G requerirá un volumen más alto de torres de celulares, en comparación con las pocas torres enormes requeridas para 4G. 5G necesitará contar con torres cada 100 metros afuera y cada 50 metros adentro, razón por la cual es más idónea para centros urbanos densos (como veremos más adelante con mayor detenimiento). El potencial teórico de las ondas milimétricas es apasionante, pero en realidad la mayoría de compañías de 5G están intentando implementarlo en las partes inferiores del espectro.

¡No olvide la fibra!

La tecnología 5G funciona en una infraestructura de fibra. Podemos entender la fibra como el sistema nervioso de una red móvil, que conecta los centros de datos con las torres de celulares.

5G requires data centers, fiber, cell towers, and small cells

Los operadores móviles y los cuerpos internacionales que fijan estándares, entre ellos la Unión Internacional de Telecomunicaciones, creen que la fibra es el mejor material conector debido a su larga vida, alta capacidad, alta confiabilidad y su capacidad para soportar un tráfico muy alto. Pero la inversión inicial es costosa (un estudio de Deloitte de 2017 calculó que la implementación de 5G en los Estados Unidos requeriría de una inversión de al menos $130 billones en fibra) y a menudo prohibitiva en términos del costo para proveedores y operadores, en particular en los países en vías de desarrollo y en áreas rurales. A veces se publicita a 5G como un reemplazo para la fibra; sin embargo, ésta y 5G son tecnologías complementarias.

El gráfico que aparece a continuación a menudo se emplea para explicar las características primarias que conforman la tecnología de 5G (capacidad mejorada, baja latencia y mejor conectividad), así como las posibles aplicaciones de dichas características.

Features that make up 5G technology: enhanced capacity, low latency, and enhanced connectivity, and the potential applications of these features

¿Quién proporciona la tecnología 5G?

El mercado de proveedores de 5G está muy concentrado, incluso más que el de generaciones anteriores. Un puñado de compañías son capaces de suministrar la tecnología necesaria a los operadores de telecomunicaciones. Huawei (China), Ericsson (Suecia) y Nokia (Finlandia) han liderado el avance para ampliar 5G y usualmente hacen interface con las compañías de telecomunicaciones locales, proporcionando a veces y servicios de mantenimiento.

En 2019, el gobierno de los Estados Unidos aprobó una ley de defensa de autorización del gasto, la NDAA sección 889, que esencialmente prohíbe que las agencias de los EE.UU. utilicen equipos de telecomunicaciones fabricados por proveedores chinos (por ejemplo, Huawei y ZTE). Se impuso esta restricción por temor a que el gobierno chino pudiera usar su infraestructura de telecomunicaciones para espiar (véase más en la sección Riesgos). La
NDAA sección 889 puede aplicarse a cualquier contrato efectuado con el gobierno de los EE.UU., por lo cual es crucial que las organizaciones que vienen considerando asociarse con proveedores chinos tengan en mente los retos legales que tendría tratar tanto con el gobierno chino como el de los EE.UU. en relación con 5G.

Esto, claro está, quiere decir que la variedad de los fabricantes de 5G de golpe se ha hecho mucho más limitada. Las compañías chinas tienen por lejos la mayor participación del mercado de la tecnología 5G. Huawei tiene la mayoría de las patentes registradas, y la presencia lobbista más vigorosa dentro de la Unión Internacional de Telecomunicaciones.

La cancha del 5G es ferozmente política y hay fuertes tensiones entre China y los Estados Unidos. Dado que la tecnología 5G se encuentra estrechamente conectada con la fabricación de los chips, es importante vigilar la “guerra de los chips”. Es probable que los proveedores que dependen de compañías estadounidenses y chinas queden cogidos en medio a medida que la guerra comercial entre ambos países empeora, puesto que las cadenas de suministro y la fabricación de equipos a menudo depende de ambos países. Peter Bloom, fundador de Rhizomatica, señala que se proyecta que el mercado global de chips habrá de crece hasta $22.41 billones para 2026. Bloom advierte: “El impulso a 5G comprende una plétora de grupos de interés, en particular de gobiernos, instituciones financieras y compañías de telecomunicaciones, que debe analizarse mejor a fin de entender dónde se están moviendo las cosas, qué intereses vienen siendo atendidos, y las posibles consecuencias de dichos cambios”.

Inicio

¿De qué modo es 5G relevante en el espacio cívico y para la democracia?

Agencia monetaria móvil en Ghana. Aproximadamente el 50% de la población mundial aún no está conectada a la internet. Crédito de la fotografía: John O’Bryan/ USAID.
Agencia monetaria móvil en Ghana. Aproximadamente el 50% de la población mundial aún no está conectada a la internet. Crédito de la fotografía: John O’Bryan/ USAID.

5G es la primera generación que no prioriza el acceso y la conectividad para los humanos. Ella más bien brinda un nivel de super-conectividad para casos de uso suntuario y entornos específicos; por ejemplo, las experiencias de realidad virtual mejorada y juegos de video masivamente multiusuario. Muchos de los casos publicitados, como la cirugía remota, son teóricos y experimentales, y aún no existen de modo amplio en la sociedad. En efecto, la telecirugía es uno de los ejemplos más citados de los beneficios de 5G, pero sigue siendo una tecnología prototipo. Su implementación a escala requiere abordar muchas cuestiones técnicas y resolver cuestiones legales, además de desarrollar una red global.

El acceso a la educación, el cuidado de la salud y la información son derechos fundamentales, pero los juegos de video de múltiples jugadores, la realidad virtual y los vehículos autónomos —todos los cuales dependen de 5G— no lo son. 5G es un desvío de la infraestructura crucial, necesaria para poner a la gente en línea para que goce de sus derechos fundamentales y permitir así el funcionamiento de la democracia. En realidad, la concentración en 5G desvía la atención de soluciones inmediatas a la mejora del acceso y del cubrir la brecha digital.

El porcentaje de la población global que usa internet viene subiendo, pero una parte significativa del mundo aún no está conectado a ella. Es poco probable que 5G aborde la brecha en el acceso a internet entre las poblaciones rurales y urbanas, o entre las economías desarrolladas y en vías de desarrollo. Lo que se requiere para mejorar el acceso a internet en contextos industriales en desarrollo es más fibra, más puntos de intercambio de internet (IXP), más torres de celulares, más routers de Internet, más espectro inalámbrico y un suministro eléctrico confiable. En un libro blanco de la industria, sólo una de 125 páginas examinó una versión “reducida” de 5G que aborde las necesidades de áreas con un ingreso medio extremadamente bajo por usuario (ARPU). Estas soluciones incluyen el limitar aún más las áreas geográficas del servicio.

Capacitadores digitales en Mugumu, Tanzania. 5G no está diseñado fundamentalmente para conectar personas, sino más bien aparatos. Crédito de la fotografía: foto de Bobby Neptune para DAI.
Capacitadores digitales en Mugumu, Tanzania. 5G no está diseñado fundamentalmente para conectar personas, sino más bien aparatos. Crédito de la fotografía: foto de Bobby Neptune para DAI.

Esta presentación efectuada por la corporación estadounidense INTEL en un foro regional de la UIT en 2016, anuncia las aspiraciones usuales de 5G: vehículos autónomos (denominados “transporte inteligente”), realidad virtual (denominada “aprendizaje electrónico”), cirugía remota (llamada “e-salud”), y sensores para apoyar el manejo del agua y la agricultura. De igual modo, casos sumamente específicos y teóricos de uso futuro — vehículos autónomos, automatización industrial hogares, ciudades y logística inteligente— fueron anunciados durante un webinar de 2020 patrocinado por la Kenya ICT Action Network en asociación con Huawei.

En ambas presentaciones el énfasis recayó en la conexión de objetos, demostrando así que 5G está diseñado para las grandes industrias y no para las personas. E incluso si 5G fuese accesible en las áreas rurales remotas, para acceder a ella la gente probablemente tendría que comprar los más costosos planes de datos ilimitados. Este costo se suma al de tener que adquirir teléfonos inteligentes y aparatos compatibles con 5G. Las compañías de telecomunicaciones mismas calculan que sólo el 3% del África subsahariana usará 5G. Se calcula que para 2025, la mayoría de la gente seguirá usando 3G (aproximadamente 60%) y 4G (alrededor del 40%), una tecnología que ha existido ya por 10 años.


Banda ancha de 5G / Acceso inalámbrico fijo (FWA)

Dado que la mayoría de las personas en los países en contextos en vías de desarrollo industrial se conecta a la internet a través de la infraestructura de telefonía celular y la banda ancha móvil, lo más útil para ellas sería la “banda ancha 5G”, a la cual también se denomina Acceso Inalámbrico Fijo 5G (FWA). FWA está diseñado para reemplazar la infraestructura de “última milla” con una red inalámbrica de 5G. En efecto, esta “última milla” —la distancia final al usuario final— es a menudo la más grande barrera al acceso a internet en todo el mundo. Pero dado que la inmensa mayoría de estas redes de 5G habrán de depender de una conexión de fibra, física, la FWA sin fibra no sería de la misma calidad. Estas redes de FWA serán también más costosas de mantener para los operadores que la infraestructura tradicional o “ancha banda fija estándar”.

Este artículo de Ericsson, uno de los principales proveedores de 5G, afirma que FWA será uno de los principales usos de 5G, pero el artículo muestra que los operadores contarán con una amplia capacidad para adaptar sus tarifas, y admite además que muchos mercados seguirán siendo abordados con 3G y 4G.

5G no reemplazará otros tipos de conectividad de internet para la ciudadanía

Mientras que 5G requiere de una enorme inversión en infraestructura física, las nuevas generaciones de acceso celular a Wi-Fi están haciéndose más accesibles y asequibles. Hay también una creciente variedad de soluciones de “redes comunitarias”, entre ellas redes en malla de Wi-Fi, y a veces hasta fibras de propiedad comunal. Para mayor información consúltese: 5G and the Internet of EveryOne: Motivation, Enablers, and Research Agenda, IEEE (2018). Estas son alternativas importantes a 5G a las que se debe considerar en cualquier contexto (desarrollado y en vías de desarrollo, urbano y rural).

“Si estamos hablando de sed y falta de agua, 5G es fundamentalmente un nuevo tipo de cóctel, un nuevo sabor para atraer consumidores sofisticados, siempre y cuando vivas en lugares rentables para el servicio y puedas pagarlo. La renovación de equipos y aparatos de comunicación es una oportunidad de negocio fundamentalmente para los fabricantes, pero sencillamente no es la mejor ‘agua’ para los clientes desconectados, rurales (que no son premium) e incluso es un problema puesto que la inversión de los operadores es empujada primero por la tendencia a satisfacer a los clientes urbanos de alto poder adquisitivo, y no a difundir la conectividad a la inclusión social/universal de los clientes de bajo poder adquisitivo”. – IGF Dynamic Coalition on Community Networks, en comunicación con los autores de este recurso.

Es crucial que no olvidemos las redes de la generación previa. 2G seguirá siendo importante para brindar una amplia cobertura. Ella ya está sumamente presente (alrededor del 95% en los países de ingreso bajo y medio), requiere de menos datos y transporta bien la voz y el tráfico de SMS, lo que significa que es una opción segura y confiable en muchas situaciones. Además, actualizar los sitios ya existentes de 2G a 3G o 4G es menos costoso que construir sitios nuevos.

5G y el sector privado

La tecnología que 5G facilita (la Internet de las cosas , ciudades inteligentes ,hogares inteligentes) alentará la instalación de chips y sensores en un número cada vez más grande de objetos. Los artefactos que 5G propone conectar no son fundamentalmente teléfonos y computadoras, sino sensores, vehículos, equipos industriales, aparatos médicos implantados, drones, cámaras, etc. Vincular dichos aparatos plantea una serie de problemas de seguridad y privacidad, tal como se explora en la sección Riesgos.

Los actores que más se beneficiarán con 5G no son la ciudadanía o los gobiernos democráticos, sino los corporativos. El modelo empresarial que impulsa 5G gira en torno al acceso de la industria a aparatos conectados: en las manufacturas, la industria automotriz, en el transporte y la logística, en la generación de energía y el monitoreo eficiente, etc. 5G impulsará el crecimiento económico de aquellos actores capaces de beneficiarse con ella, en particular los que están comprometidos con la automatización, pero sería apresurado asumir que dichos beneficios se repartirán por toda la sociedad.

La introducción de 5G introducirá masivamente al sector privado dentro del espacio público a través de los carriers y operadores de internet, así como otras terceras partes detrás de los muchos aparatos conectados. Esta toma del espacio público por parte de actores privados (y usualmente actores privados extranjeros) debe ser considerada cuidadosamente a través del lente de la democracia y de los derechos fundamentales. Es cierto que el sector privado ya entró a nuestros espacios públicos (calles, parques, centros comerciales) con las redes celulares anteriores pero el arribo de 5G, que trae consigo más objetos conectados y mayor frecuencia de torres de celulares, incrementará dicha presencia.

Aunque las redes 5G guardan la promesa de una mejor conectividad, hay una creciente preocupación en torno a su mal uso para efectuar prácticas antidemocráticas. Se ha observado a gobiernos de diversas regiones usando la tecnología para obstruir la transparencia y suprimir el disenso, dándose casos del cierre de internet durante las elecciones y la vigilancia de opositores políticos. Por ejemplo, entre 2014 y 2016, los cierres de internet fueron usados en una tercera parte de las elecciones en el África subsahariana.

Estas prácticas a menudo se ven facilitadas por la colaboración con las compañías que brindan herramientas avanzadas de vigilancia, y que permiten el monitoreo de periodistas y activistas sin el debido proceso. El crecimiento sustancial en la transmisión de datos que 5G ofrece elevó la apuesta, permitiendo potencialmente una vigilancia más ubicua y una amenaza más significativa a la privacidad y los derechos de las personas, en particular los de los marginados. Es más, en el momento en que los sistemas electorales dependen más de la tecnología, con iniciativas para poner el voto en línea, el riesgo de los ciberataques que aprovechan las vulnerabilidades de 5G podrían comprometer la integridad de las elecciones democráticas, lo cual hace que la protección contra estas intrusiones sea una prioridad crucial.

Inicio

Oportunidades

Los beneficios anunciados de 5G usualmente caen dentro de tres áreas, tal como se esboza a continuación. También se explicará una cuarta área de beneficios que si bien se cita menos en la bibliografía, sería la más directamente beneficiosa para la ciudadanía. Debe apuntarse que estos beneficios no estarán disponibles pronto, y que tal vez jamás sean ampliamente disponibles. Muchos seguirán siendo servicios de elite, disponibles solo bajo condiciones precisas y a alto costo. Otros requerirán de estandarización, infraestructura legal y reguladora, y una adopción generalizada antes de que puedan ser una realidad social.

El cuadro que aparece a continuación, que ha sido tomado de un informe de GSMA, muestra los beneficios usualmente enumerados de 5G. Los de la sección blanca podrían alcanzarse con redes anteriores como 4G, y los de la sección púrpura requerirán de 5G. Esto subraya aún más el hecho que muchos de los objetivos de 5G son en realidad posibles sin ella.

Benefits of 5G

Realidad aumentada e Internet táctil

5G tiene muchos usos potenciales en el esparcimiento, y en los juegos en especial. Una baja latencia posibilita los juegos masivos de multijugador, conferencias con video de mayor calidad, descargas más rápidas de videos de alta calidad, etc. La realidad virtual y aumentada son promocionadas como formas de crear experiencias inmersivas de aprendizaje en línea. La capacidad de 5G para conectar aparatos posibilitará el uso de dispositivos médicos vestibles a los que se puede controlar remotamente (aunque no sin riesgos de ciberseguridad). Tal vez el ejemplo más fascinante de la “internet táctil” es la posibilidad de la cirugía a distancia: una operación podría ser efectuada por un robot controlado a distancia por un cirujano en algún lugar al otro lado del mundo. Los sistemas necesarios para esto se encuentran en su infancia y dependen también del desarrollo de otras tecnologías, así como de estándares reguladores y legales, y de un modelo empresarial viable.

Vehículos autónomos

El mayor beneficio de 5G será en el sector automotriz. Se espera que su alta velocidad permite que los autos se coordinen de forma segura entre sí y con otra infraestructura. Para que los vehículos autónomos sean seguros deberán poder comunicarse entre ellos y con todo lo que les rodea en milisegundos. La súpervelocidad de 5G es importante para poder alcanzar esto. (Al mismo tiempo, 5G plantea otros problemas de seguridad a los vehículos autónomos.)

Conectividad máquina a máquina (IdC)/hogares inteligentes/ciudades inteligentes)

La conectividad máquina a máquina o M2M, ya existe en muchos aparatos y servicios, pero 5G facilitaría esto aún más. Esto beneficiará a los jugadores industriales (manufactureros, proveedores de logística, etc.), pero podría discutiblemente beneficiar sobre todo a las personas o ciudades que deseen monitorear su uso de ciertos recursos como la energía o el agua. Los sensores instalados pueden ser usados para recolectar datos los cuales a su vez pueden analizarse para ver su eficiencia y el sistema puede entonces optimizarse. Las aplicaciones típicas de M2M en el hogar inteligente incluyen termóstatos y detectores de humo, electrónica de consumo y el monitoreo del cuidado de la salud. Debe señalarse que muchos de estos dispositivos pueden operar con redes de 4G, 3G y hasta 2G.

El acceso inalámbrico fijo (FWA) basado en 5G puede proporcionar a los hogares una banda ancha de Gigabit

Tal vez el beneficio más relevante de 5G en contextos en vías de desarrollo industrial será el potencial del FWA. Éste es menos citado en la literatura del marketing porque no permite del todo los beneficios industriales prometidos. Se le debe pensar como un tipo distinto de “5G” puesto que permite una amplitud de conectividad antes que una fortaleza o intensidad revolucionarias. (Véase la sección Banda ancha de 5G / Acceso inalámbrico fijo  section.) Como ya se explicó, el FWA requiere aún de inversiones en infraestructura y no necesariamente será más asequible que las alternativas de banda ancha debido al creciente poder dado a los carriers.

Inicio

Riesgos

El uso de tecnologías emergentes puede asimismo crear riesgos en los programas de la sociedad civil. Lea a continuación cómo distinguir los posibles peligros asociados con 5G en el trabajo de DRG, así como el modo de mitigar consecuencias involuntarias y voluntarias.

Privacidad personal

Con 5G conectando más y más aparatos, el sector privado ingresará aún más dentro del espacio público a través de sensores, cámaras, chips, etc. Muchos de los dispositivos conectados serán cosas que antes jamás esperamos que se conectaran a la internet: lavadoras, inodoros, cunas, etc. Algunos incluso estarán dentro de nuestro cuerpo, como los marcapasos inteligentes. La colocación de aparatos con chips en nuestro hogar y entornos facilitará la recolección de datos acerca de nosotros, así como otras formas de vigilancia.

Un número creciente de actores terceros cuenta con métodos sofisticados de recolectar y analizar datos personales. Algunos dispositivos podrían finalmente recolectar sólo metadatos, pero esto podría reducir seriamente la privacidad. Los metadatos son información relacionada con nuestras comunicaciones que no incluyen su contenido: por ejemplo los números a los que se llamó, las páginas web visitadas, la ubicación geográfica o la hora y fecha en que se hizo una llamada. La corte suprema de la UE ha dictaminado que este tipo de información puede ser considerada igual de sensible que el contenido mismo de la comunicación, debido al conocimiento de nuestra vida privada que los datos pueden ofrecer. 5G permitirá que los operadores de telecomunicaciones y otros actores accedan a los metadatos a los que se puede reunir para tener un conocimiento de nosotros que reducirá nuestra privacidad.

Por último, 5G requiere muchas pequeñas estaciones base de celulares, de modo tal que dichas torres estarán mucho más cerca de los hogares y centros de trabajo de la gente, en semáforos, postes de alumbrado, etc. Esto hará que el monitoreo de la ubicación sea mucho más preciso y hará que la privacidad de la ubicación sea algo casi imposible.

Espionaje

Para la mayoría, 5G será suministrada por compañías extranjeras. En el caso de Huawei y ZTE, el gobierno del país en donde dichas compañías operan (la República Popular China) no defiende las obligaciones de los derechos humanos o los valores democráticos. Por esta razón, a algunos gobiernos les preocupa el potencial para el abuso de los datos por parte del espionaje extranjero. Varios países, entre ellos los Estados Unidos, Australia y el Reino Unido, han tomado medidas para limitar el uso de equipos chinos en sus redes de 5G debido al temor a un posible espionaje. Un informe de 2019 acerca de los riesgos de seguridad de 5G, obra de la Comisión Europea y la Agencia de la Unión Europea para la Ciberseguridad, advierte en contra del uso de un único proveedor en la infraestructura de 5G debido al riesgo de espionaje. El argumento general en contra de un único proveedor (usualmente formulado en contra del proveedor chino Huawei), es que si este suministra la infraestructura central de la red de 5G, entonces su gobierno (China) conseguirá una inmensa capacidad de vigilancia a través de los metadatos, o incluso la “puerta trasera” de una vulnerabilidad. El espionaje gubernamental a través del sector privado y de los equipos de telecomunicaciones son algo común y China no es el único culpable. Pero la masiva capacidad de las redes de 5G y los muchos aparatos conectados que recogen información personal, mejorarán la información en juego así como los riesgos.

Riesgos de ciberseguridad

Como regla general, cuanto más conectados digitalmente estemos, tanto más vulnerables somos a las ciberamenazas. 5G busca hacer que nosotros y nuestros aparatos estemos ultraconectados. Si un vehículo autónomo en una red inteligente es hackeado o se malogra, esto podría generar un peligro físico inmediato y no solo una filtración de información. 5G centraliza la infraestructura alrededor de un núcleo, lo cual hace que sea particularmente vulnerable. Dada la amplia aplicación de las redes basadas en 5G, esta trae consigo la posibilidad creciente de cierres de internet, lo que pone en peligro gran parte de la red.

La infraestructura de 5G podría simplemente tener deficiencias técnicas. Muchas de estas deficiencias aún no se conocen porque esta tecnología aún sigue en las fases piloto. 5G promociona algunas funciones de seguridad mejoradas, pero los agujeros de seguridad permanecerán porque los aparatos seguirán conectados a las redes más antiguas.

Costos de inversión descomunales y retornos cuestionables

Tal como A4AI lo explica, “La introducción de la tecnología 5G demandará una inversión significativa en infraestructura, lo que incluye nuevas torres capaces de suministrar una mayor capacidad, y centros de datos más grandes que funcionan con energía eficiente”. Estos costos probablemente serán pasados a los consumidores, quienes tendrán que comprar aparatos compatibles y datos suficientes. 5G necesita una inversión masiva en infraestructura, incluso en lugares que ya cuentan con una sólida infraestructura 4G, cables de fibra óptica, buenas conexiones de última milla y un suministro eléctrico confiable. Los cálculos del costo total de la implementación de 5G —lo que incluye las inversiones en tecnología y el espectro— alcanzan incluso los $2.7 trillones USD. Dados los muchos riesgos de seguridad, las incertidumbres reguladoras y la naturaleza en general no probada de la tecnología, 5G resulta no ser una inversión segura ni siquiera en los centros urbanos pudientes. El alto costo de su introducción será un obstáculo para su expansión, y no es probable que los precios caigan lo suficiente como para hacer que sea ampliamente asequible.

Dado que se trata de un producto nuevo tan complejo, hay el riesgo de que se compren equipos de baja calidad. 5G es sumamente dependiente de software y servicios de terceros, lo que multiplica las posibilidades de que haya defectos en partes de los equipos (código mal escrito, mala ingeniería, etc.). El proceso de parchar estos fallos podría ser largo, complicado y costoso. Algunas vulnerabilidades podrían quedar sin ser identificadas por mucho tiempo, pero podrían repentinamente provocar severos problemas de seguridad. La falta de cumplimiento de los estándares de la industria o legales podría provocar problemas similares. En algunos casos los nuevos equipos podrían no tener fallos ni ser defectuosos, sino simplemente ser incompatibles con los equipos ya existentes o con las compras hechas a otros proveedores. Es más, tan solo manejar la red de 4G debidamente tiene costos enormes: protegerla de ciberataques, parchar agujeros y enfrentar fallos, y mantener actualizada la infraestructura material. Para estas tareas es necesario contar con operadores humanos calificados y confiables.

Dependencia extranjera y riesgos geopolíticos

La instalación de nueva infraestructura significa la dependencia de actores del sector privado, usualmente de países extranjeros. La dependencia excesiva de actores privados extranjeros genera múltiples preocupaciones, como ya se dijo, relacionadas con la ciberseguridad, la privacidad, el espionaje, los costos excesivos, la compatibilidad, etc. Dado que sólo un puñado de actores son plenamente capaces de suministrar 5G, se corre también el riesgo de hacerse dependiente de un país extranjero. Y dadas la actual tensión geopolítica entre los EE.UU. y China, los países que intenten instalar la tecnología 5G podrían quedar cogidos en el fuego cruzado de una guerra comercial. Así lo explica Jan-Peter Kleinhans, un experto en seguridad y en 5G de Stiftung Neue Verantwortung (SNV): “El caso de Huawei y 5G forma parte de un desarrollo más amplio en las tecnologías de la información y las comunicaciones (TIC). Estamos pasando de un mundo unipolar con los EE.UU. como líder tecnológico, a otro bipolar en el cual China tiene un papel cada vez más dominante en el desarrollo de las TIC”. La carga financiera de este mundo bipolar será pasada a proveedores y clientes.

Divisiones de clase/riqueza y urbanas/rurales

“Sin un plan completo de la infraestructura de fibra, 5G no revolucionará el acceso a Internet o la velocidad para los clientes rurales. De modo tal que cada vez que la industria afirme que 5G revolucionará el acceso a la banda ancha rural, están haciendo algo más que promocionándolo demasiado, sencillamente están engañando a la gente”. — Ernesto Falcon, la Electronic Frontier Foundation.

5G no es una inversión lucrativa para los operadores en las áreas más rurales y en contextos en vías de desarrollo, en donde la densidad de los dispositivos potencialmente conectados es más baja. En la industria hay un consenso, apoyado por la UIT misma, en que el despliegue inicial de 5G será en áreas urbanas densas, en particular las áreas pudientes con presencia de la industria. Es probable que las áreas rurales y más pobres, que cuentan con menos infraestructura existente, se quedarán atrás porque no son una buena inversión comercial para el sector privado. En las áreas rurales e incluso en las suburbanas, es probable que las ondas milimétricas y las redes de celulares que requieren de densas torres no sean una solución viable. En consecuencia, 5G no cubrirá la brecha digital de las áreas urbanas y de menores ingresos. La reforzará al ofrecer una súperconectividad a los que ya cuentan con acceso y pueden pagar dispositivos aún más costosos, al mismo tiempo que hace que el costo de la conectividad resulte más alto para otros.

Uso energético e impacto ambiental

Huawei ha compartido que el sitio típico de 5G tiene un requisito energético de más de 11.5 kilowatts, casi 70% más que aquellos que aplican 2G, 3G y 4G. Algunos calculan que la tecnología 5G usará dos a tres veces más energía que las tecnologías móviles previas. 5G requerirá de más infraestructura, lo que significa un mayor suministro energético y más capacidad de las baterías, todo lo cual tiene consecuencias ambientales. Las cuestiones ambientales más significativas asociadas con su implementación provienen de la fabricación de las muchas partes componentes, junto con la proliferación de los nuevos aparatos que usarán la red 5G. Ésta alentará una mayor demanda y consumo de aparatos digitales, y por ende la creación de más chatarra electrónica, lo cual también habrá de tener serias consecuencias ambientales. Según Peter Bloom, el fundador de Rhizomatica, la mayor parte del daño ambiental provocado por 5G tendrá lugar en el sur global. Esto incluye los daños al ambiente y a las comunidades en donde se extraen los materiales y minerales, así como la polución debida a la chatarra electrónica. En los Estados Unidos, la Oficina Nacional de Administración Oceánica y Atmosférica y la NASA reportaron el año pasado que la decisión de abrir las bandas de alto espectro (el espectro de 24 gigahercios) afectaría durante décadas la capacidad de predecir el clima.

Inicio

Preguntas

Para entender el potencial que 5G tiene para su entorno laboral o comunidad, hágase estas preguntas para evaluar si es la solución más apropiada, más segura, la más efectiva en términos de los costos y la más centrada en el ser humano:

  1. ¿La gente ya puede conectarse de modo suficiente a la internet? ¿Se cuenta con la infraestructura necesaria (fibra, puntos de intercambio de internet, electricidad) para conectarse a través de 3G o 4G, o mediante Wi-Fi?
  2. ¿Se cuenta con las condiciones para aplicar 5G efectivamente? Esto es, ¿hay suficiente backhaul de fibra e infraestructura de 4G (recuerde que 5G aún no es una tecnología standalone)?
  3. ¿Qué caso(s) de uso específico(s) tiene para 5G que no puedan alcanzarse con una red de una generación anterior?
  4. ¿Qué otros planes se están haciendo para abordar la brecha digital empleando Wi-Fi y redes en malla, competencia y capacitación digital, etc.?
  5. ¿Quién se beneficiará con el uso de 5G? ¿Quién podrá acceder a ella? ¿Tienen los aparatos apropiados y suficientes datos? ¿El acceso será asequible?
  6. ¿Quién está suministrando la infraestructura? ¿Qué tanto se puede confiar en ellos en lo que respecta a la calidad, precio, seguridad, privacidad de datos, y posible espionaje?
  7. ¿Los beneficios de 5G superan los costos y riesgos (en relación con la seguridad, inversión financiera y posibles consecuencias geopolíticas)?
  8. ¿Se cuenta con suficientes recursos humanos calificados para mantener la infraestructura de 5G? ¿Cómo se resolverán las fallas y las vulnerabilidades?

Inicio

Estudios de caso

América Latina y el Caribe

5G: el impulsor de la sociedad digital de siguiente generación en América Latina y el Caribe

“Muchos países de todo el mundo tienen prisa por adoptar 5G para asegurar rápidamente los significativos beneficios económicos y sociales que trae consigo. Dadas las enormes oportunidades que las redes de 5G habrán de crear, los países de América Latina y el Caribe (ALC) deben adoptarla activamente. Sin embargo, para desplegar exitosamente las redes de 5G en la región, es importante resolver primero los retos que habrán de enfrentar, entre ellos los altos costos de implementación, el asegurar el espectro, la necesidad de desarrollar instituciones y las cuestiones en torno a la activación. Para que las redes de 5G se establezcan y utilicen con éxito, los gobiernos de ALC deben tomar una serie de medidas, entre ellas mejorar la regulación, establecer instituciones y brindar apoyo financiero relacionado con la inversión en la red de 5G”.

El Reino Unido

El Reino Unido fue de los primeros mercados en lanzar globalmente 5G en 2019. Como sus operadores han intensificado la inversión en 5G, el mercado ha estado a la par con otros países europeos en términos de su performance, pero sigue detrás de “pioneros de la 5G” como Corea del Sur y China. Por motivos de seguridad, en 2020 el gobierno británico prohibió que los operadores emplearan equipos de 5G suministrados por Huawei, la compañía de telecomunicaciones china, y fijó 2023 como fecha límite para el retiro de sus equipos y servicios de las funciones centrales de la red, y 2027 para su retiro total. El Digital Connectivity Forum advirtió en 2022 que el RU estaba en riesgo de no aprovechar plenamente el potencial de 5G debido a su insuficiente inversión, lo cual afectaría el desarrollo de nuevos servicios tecnológicos como los vehículos autónomos, la logística automatizada y la telemedicina.

Las Monarquías del Golfo Pérsico

Los Estados de las Monarquías del Golfo Pérsico fueron de los primeros en el mundo en lanzar nuevos servicios comerciales de 5G, y han invertido fuertemente en 5G y en tecnologías avanzadas. Los proveedores de servicio local árabes están asociándose con ZTE y Nokia para extender su alcance en los países árabes y asiáticos. En muchos países del golfo los proveedores de 5G y de Internet son de propiedad fundamentalmente estatal, consolidando la influencia gubernamental de este modo sobre los servicios o plataformas apoyados por 5G. Esto podría hacer que solicitar el compartir datos o cerrar la Internet resulte más fácil para los gobiernos. Dubái ya viene aplicando tecnología de reconocimiento facial desarrollada por compañías con lazos con el PCCh para su programa “Policía sin Policías” (Ahmed, R. et al., 13).

Corea del Sur

Corea del Sur se ha establecido como un temprano líder de mercado para el desarrollo de 5G. Sus redes en Asia serán fundamentales para la difusión del desarrollo de 5G dentro de la región. Actualmente la empresa surcoreana Samsung está presente principalmente en el mercado de los aparatos de 5G. Samsung viene siendo considerado como reemplazo de Huawei en las discusiones del “Club D10”, un grupo proveedor de telecomunicaciones fundado por el RU y que consta de los miembros del G7 más India, Australia y Corea del Sur. Sin embargo, los detalles de su agenda aún están por fijarse. Aunque Corea del Sur y otros intentan expandir su papel en 5G, el desacoplar a Huawei de las TIC y los tradeoffs en el comercio seguro están haciendo que el proceso sea más complicado (Ahmed, R. et al., 14).

AÁfrica

¿Qué gobiernos han introducido 5G en África?

“En África los gobiernos son optimistas en que un día podrán emplear 5G para efectuar una agricultura a gran escala con drones, introducir vehículos autónomos a las carreteras, conectarse al metaverso, activar hogares inteligentes y mejorar la ciberseguridad. Algunos analistas predicen que para 2034, 5G sumará otros $2.2 trillones a la economía africana. Pero los primeros en impulsar 5G en África enfrentan fuertes problemas que tal vez retrasen sus metas respectivas. Los retos giraron en torno a la claridad de la regulación del espectro, la viabilidad comercial, los plazos de la implementación y el bajo poder adquisitivo de la ciudadanía con respecto a smartphones habilitados para 5G y una internet costosa”. Para mediados de 2022 Botsuana, Egipto, Etiopía, Gabón, Kenia, Lesoto, Madagascar, Mauricio, Nigeria, Senegal, Seychelles, Sudáfrica, Uganda y Zimbabue estaban probando o habían aplicado 5G, pero muchos de estos países tuvieron demoras en su introducción.

Inicio

Referencias

A continuación aparecen los trabajos citados en este recurso.

Recursos adicionales

  • La Association for Progressive Communications tuvo un webinar on 5G and Covid-19.
  • Finley, Klint & Joanna Pearlstein. (2020). The WIRED Guide to 5G.
  • Rhizomatica: una organización sin fines de lucro con sede en México, que cuenta con recursos y artículos en un blog sobre 5G y temas afines (en inglés y español).
  • The Prague Proposals: dadas en Praga después de la Prague 5G Security Conference en mayo de 2019.

Inicio

Categories

Inteligencia artificial y aprendizaje automático

¿Qué son la IA y el AA?

La inteligencia artificial (IA) es un campo de las ciencias de la computación dedicado a resolver problemas cognitivos usualmente asociados con la inteligencia humana como el aprendizaje, la resolución de problemas y el reconocimiento de patrones. Dicho de otro modo, IA es un término de múltiple contenido al cual se usa para describir nuevos tipos de software que pueden acercarse a la inteligencia humana. No hay una única definición precisa y universal de IA.

El aprendizaje automático (AA) es un subconjunto de IA. Esencialmente es una de las formas en que las computadoras “aprenden”. El AA es un enfoque de IA basado en algoritmos entrenados para que desarrollen sus propias reglas. Esta es una alternativa a los programas tradicionales de computación, en los cuales las reglas deben ser programadas a mano. El aprendizaje automático extrae patrones de los datos y los coloca en distintos conjuntos. Se ha descrito al AA como “la ciencia de hacer que las computadoras actúen sin haber sido programadas explícitamente”. Dos breves videos nos dan explicaciones simples de IA y AA: ¿Qué es la inteligencia artificial? | Explicación de la IA y ¿Qué es el aprendizaje automático?

Otros subconjuntos de AI son el procesamiento de voz, procesamiento de lenguaje natural (PLN), robótica, cibernética, visión artificial, sistemas expertos, sistemas de planificación y computación evolutiva.

artificial intelligence, types

El diagrama anterior muestra los muchos tipos distintos de campos tecnológicos que la IA comprende. Esta última puede referirse a un amplio campo de tecnologías y aplicaciones. El aprendizaje automático es una herramienta empleada para crear sistemas de IA. Cuando nos referimos a esta podemos estar aludiendo a una o varias de estas tecnologías o campos. Las aplicaciones que utilizan IA, como Siri o Alexa, usan múltiples tecnologías. Si, por ejemplo, le decimos a Siri: “Siri, muéstrame la figura de una banana”, usará el procesamiento del lenguaje natural (búsqueda de respuestas) para entender qué se le está preguntado, y luego usará la visión digital (reconocimiento de imágenes) para hallar una banana y mostrársela.

Como ya se indicó, la IA no cuenta con una definición universal. Hay muchos mitos en torno a ella, desde el temor de que controle el mundo esclavizando a los humanos, hasta la esperanza de que algún día se la pueda usar para curar el cáncer. Esta introducción busca brindar una comprensión básica de la inteligencia artificial y el aprendizaje automático, así como esbozar algunos de los beneficios y riesgos que la IA presenta.

Definiciones

Algoritmo: se define a un algoritmo como “una serie finita de instrucciones bien definidas que una computadora puede implementar para resolver un conjunto específico de problemas computacionales”. Los algoritmos son procedimientos nada ambiguos y paso a paso. Un ejemplo simple de un algoritmo sería una receta; otro sería un procedimiento para encontrar al número más grande en un conjunto numérico ordenado aleatoriamente. Un algoritmo puede o bien ser creado por un programador, o sino ser generado automáticamente. En este último caso lo será utilizando datos mediante el AA.

Toma de decisiones algorítmica/Sistema de decisión algorítmica (SDA): los sistemas de decisión algorítmica emplean análisis de datos y estadísticos para tomar decisiones automatizadas, como por ejemplo establecer si una persona es elegible para un beneficio o una pena. Entre los ejemplos de sistemas de decisión algorítmica completamente automatizados tenemos al control electrónico de pasaportes en los aeropuertos, o una decisión automatizada tomada por un banco para otorgar a un cliente un préstamo sin garantía, sobre la base de su historial crediticio y su perfil de datos en el banco. Las herramientas de ayuda a los conductores que controlan el freno, acelerador, conducción, velocidad y dirección de un vehículo son ejemplos de SDA semiautomatizados.

Big Data (macrodatos): hay muchas definiciones del “big data”, pero podemos por lo general pensarlos como conjuntos de datos extremadamente grandes que al ser analizados pueden revelar patrones, tendencias y asociaciones, entre ellos los que se refieren al comportamiento humano. La Big Data se caracteriza por las cinco V: el volumen, velocidad, variedad, veracidad y valor de los datos en cuestión. Este video ofrece una breve introducción a los macrodatos y al concepto de las cinco V.

Class label (etiqueta de clase): una etiqueta de clase se aplica después de que un sistema de aprendizaje automático ha clasificado sus insumos; por ejemplo, establecer si un correo electrónico es spam.

Deep learning (aprendizaje profundo): el aprendizaje profundo es una red neural de tres o más capas que intenta simular el comportamiento del cerebro humano, lo que permite “aprender” de grandes cantidades de datos. Este tipo de aprendizaje impulsa muchas aplicaciones de IA que mejoran la automatización, como los asistentes digitales, los controles remotos de TV activados por la voz, y la detección de fraudes con tarjetas de crédito.

Data mining: (minería de datos) la minería de datos, también conocida como descubrimiento de conocimientos en los datos, es el “proceso de analizar densos volúmenes de datos para encontrar patrones, descubrir tendencias y obtener ideas acerca de cómo podemos emplear los datos”.

La IA generativa[1]: la IA generativa es un tipo de modelo de aprendizaje profundo que puede generar texto, imágenes y otros contenidos de gran cantidad a partir de los datos de entrenamiento. Para mayor información consúltese la sección sobre IA generativa.

Label (etiqueta): una etiqueta es lo que un modelo de aprendizaje automático predice, como el futuro precio del trigo, el tipo de animal mostrado en una imagen, o el significado de un clip de audio.

Large language model (modelo grande de lenguaje): una modelo grande de lenguaje (LLM) es “un tipo de inteligencia artificial que emplea técnicas de aprendizaje profundo y conjuntos de datos masivamente grandes para entender, resumir, generar y predecir contenidos nuevos”. Un LLM es un tipo de IA generativa que ha sido construida específicamente para ayudar a generar contenidos basados en textos.

Model0: un modelo es la representación de lo que un sistema de aprendizaje automático ha aprendido de los datos de entrenamiento.

Red neural: una red neural biológica (BNN) es un sistema en el cerebro que permite sentir estímulos y responder a ellos. Una red neuronal artificial (ANN) es un sistema de computación inspirado por su contraparte biológica en el cerebro humano. En otras palabras, una ANN es “un intento de simular la red de neuronas que conforman un cerebro humano, de modo tal que la computadora pueda aprender y tomar decisiones en forma humana”. Las ANN de gran escala conducen varias aplicaciones de IA.

Perfilamiento: el perfilamiento involucra el procesamiento automatizado de datos para desarrollar perfiles a los cuales se puede usar para tomar decisiones sobre las personas.

Robot: los robots son artefactos programables automatizados. Los que son plenamente autónomos (v.g., los vehículos autónomos) son capaces de operar y tomar decisiones sin el control humano. La IA permite a los robots sentir cambios en su entorno y adaptar sus respuestas y comportamientos en conformidad a ello, para así efectuar tareas complejas sin la intervención humana.

Scoring (puntuación): la puntuación, también llamada predicción, es el proceso mediante el cual un modelo de aprendizaje automático entrenado genera valores a partir de nuevos datos ingresados. Los valores o puntajes que son creados pueden representar predicciones de valores futuros, pero podrían asimismo representar una categoría o resultado probables. Cuando se la usa en relación con personas, la puntuación es una predicción estadística que establece si una persona encaja dentro de una categoría o resultado. Por ejemplo, un puntaje crediticio es un número extraído de un análisis estadístico que representa la solvencia crediticia de una persona.

Supervised learning: en el aprendizaje supervisado, los sistemas de AA son entrenados a partir de datos bien etiquetados. Usando inputs y outputs etiquetados, el modelo puede medir su precisión y aprender con el paso del tiempo.

Aprendizaje no supervisado: el aprendizaje no supervisado emplea algoritmos de aprendizaje automático para así encontrar patrones en conjuntos de datos no etiquetados, sin necesidad de la intervención humana.

Entrenamiento: en el aprendizaje automático, el, entrenamiento es el proceso de establecer los parámetros ideales que un modelo comprende.

 

¿Cómo operan la inteligencia artificial y el aprendizaje automático?

Inteligencia artificial

La inteligencia artificial es un enfoque transdisciplinario que combina ciencias de la computación, lingüística, psicología, filosofía, biología, neurociencias, estadística, matemática, lógica y economía para “entender, modelar y replicar los procesos de inteligencia y cognitivos”.

Las aplicaciones de IA existen en todo ámbito, industria y en distintos aspectos de la vida cotidiana. Dado que la IA es tan amplia, resulta útil pensarla como estando conformada por tres categorías:

  • La IA restringida o inteligencia artificial restringida (ANI) es un sistema experto en una tarea específica, como el reconocimiento de imágenes, jugar Go, o pedirle a Alexa o Siri que respondan una pregunta.
  • La IA fuerte o inteligencia artificial general (IAG) es una IA que iguala la inteligencia humana.
  • La superinteligencia artificial (ASI) es una IA que supera la capacidad humana.

Las técnicas modernas de IA vienen desarrollándose rápidamente, y sus aplicaciones ya están generalizadas. Sin embargo, estas aplicaciones actualmente solo existen en el campo de la “IA restringida”. La inteligencia artificial general y la superinteligencia artificial aún no han sido alcanzadas, y probablemente no lo serán en los próximos años o décadas.

Aprendizaje automático

El aprendizaje automático es una aplicación de la inteligencia artificial. Si bien a menudo encontramos ambos términos usados de modo intercambiable, el primero es un proceso mediante el cual se desarrolla una aplicación de IA. El proceso de aprendizaje automático involucra un algoritmo que efectúa observaciones basadas en los datos, identifica patrones y correlaciones en ellos, y utiliza el patrón o correlación para efectuar predicciones. La mayor parte de la IA actualmente en uso está conducida por el aprendizaje automático.

Así como resulta útil dividir la IA en tres categorías, así también podemos pensar al aprendizaje automático como tres técnicas diferentes: aprendizaje supervisado; aprendizaje no supervisado; y aprendizaje profundo.

Aprendizaje supervisado

El aprendizaje supervisado categoriza eficientemente a los datos según definiciones preexistentes encarnadas en un conjunto de datos que contiene ejemplos de entrenamiento con etiquetas asociadas. Tomemos el ejemplo de un sistema de filtrado de spam, al cual se está entrenando usando correos electrónicos de spam y que no son spam. El “input” en este caso son todos los mensajes que el sistema procesa. Luego de que los humanos han marcado a ciertos mensajes como spam, el sistema los clasifica en otra carpeta. El “output” es la categorización de los mensajes. El sistema encuentra una correlación entre la etiqueta “spam” y las características de los mensajes, como el texto en el “Asunto”, las frases en el cuerpo del mensaje o la dirección de correo o IP del remitente. Usando esta correlación, el sistema intenta predecir la etiqueta correcta (spam/no spam) que aplicar a todos los futuros mensajes que procese.

En este caso, “spam” y “no spam” son denominadas “etiquetas de clase”. La correlación que el sistema halló se llama un “modelo” o “modelo predictivo”. Podemos pensar al modelo como un algoritmo que el sistema de AA genera automáticamente empleando datos. Los mensajes etiquetados a partir de los cuales el sistema aprende son llamados “datos de entrenamiento”. La variable objetivo es la característica que el sistema está buscando o de la cual quiere saber más, en este caso es la condición de spam de un mensaje. A la “respuesta correcta”, por así decirlo, en la categorización del mensaje se la denomina el “resultado deseado” o el “resultado de interés”.

Aprendizaje no supervisado

El aprendizaje no supervisado involucra el que las redes neuronales encuentren una relación o patrón sin tener acceso a conjuntos de datos previamente etiquetados de parejas de input-output. Las redes neurales organizan y agrupan los datos por cuenta propia, encontrando patrones recurrentes y detectando desviaciones de dichos patrones. Estos sistemas tienden a ser menos predecibles que los que usan conjuntos de datos etiquetados, y se les aplica más a menudo en entornos que pueden cambiar con cierta frecuencia y no son estructurados o lo están en parte. Algunos ejemplos son:

  1. Un sistema de reconocimiento óptico de caracteres que puede “leer” textos escritos a mano, aun cuando nunca haya visto dicha escritura antes.
  2. Los productos recomendados que un usuario ve en las páginas web de ventas al por menor. Estas recomendaciones podrían establecerse asociando al usuario con un gran número de variables tales como su historial de búsqueda, los artículos que ya ha comprado, la calificación que les ha dado, los que guarda en una lista de deseos, la ubicación del usuario, los artefactos que usa, las marcas que prefiere y el precio de sus compras previas.
  3. La detección de transacciones monetarias fraudulentas sobre la base de la fecha y la ubicación. Por ejemplo, si dos transacciones consecutivas tienen lugar en una misma tarjeta de crédito dentro de un lapso corto y en dos ciudades distintas.

Se usa una combinación de aprendizaje supervisado y no supervisado (lo que se conoce como “aprendizaje semisupervisado”) cuando se cuenta con un conjunto de datos relativamente pequeño y con etiquetas, para entrenar a la red neuronal para que actúe sobre otro conjunto más grande y sin etiquetas. Un ejemplo de aprendizaje semisupervisado es el software que crea deepfakes, o audio, videos o imágenes alterados digitalmente.

Aprendizaje profundo

El aprendizaje profundo emplea redes neuronales artificiales (ANN) de gran escala llamadas redes neuronales profundas para crear IA que pueda detectar fraudes financieros, efectuar análisis de imágenes médicas, traducir gran cantidad de texto sin intervención humana, y automatizar la moderación de contenido en las páginas de medios sociales. Estas redes neuronales aprenden a efectuar tareas empleando numerosas capas de procesos matemáticos, para así encontrar patrones o relaciones entre distintos puntos de datos en los conjuntos de datos. Un atributo clave del aprendizaje profundo es que estas ANN pueden leer detenidamente, examinar y clasificar cantidades inmensas de datos, lo cual en teoría les permite identificar nuevas soluciones a problemas ya existentes.

La IA generativa

La IA generativa[3] es un tipo de modelo de aprendizaje profundo que puede generar textos, imágenes u otros contenidos de gran calidad a partir de los datos de entrenamiento. El lanzamiento de, ChatGPT, el chatbot de OpenAI, a finales de 2022 llamó la atención sobre la IA generativa y desató una carrera entre las compañías para producir versiones alternativas (e idealmente superiores) de esta tecnología. El entusiasmo por los modelos grandes de lenguaje y otras formas de IA generativa también estuvo acompañado por una preocupación por la precisión, el sesgo dentro de dichas herramientas, la privacidad de los datos y cómo se podría usar estas herramientas para propagar la desinformación con mayor eficiencia.

Aunque hay otros tipos de aprendizaje automático, estos tres —el aprendizaje supervisado, el no supervisado y el aprendizaje profundo— representan las técnicas básicas usadas para crear y entrenar sistemas de IA.

Sesgos en la IA y el AA

La inteligencia artificial es construida por humanos y se la entrena con datos que ellos generan. Inevitablemente hay un riesgo de que los sesgos humanos individuales y sociales sean heredados por los sistemas de IA.

Hay tres tipos de sesgo comunes en los sistemas de computación:

  • Los sesgos preexistentes tienen su origen en las instituciones, prácticas y actitudes sociales.
  • El sesgo técnico se debe a limitaciones o consideraciones técnicas.
  • El sesgo emergente aparece en un contexto de uso.

El sesgo en la inteligencia artificial podría por ejemplo afectar la publicidad política que uno ve en la internet, el contenido movido a la cima de las noticias en las redes sociales, el costo de una prima de seguro, los resultados de la revisión en un proceso de reclutamiento, o la capacidad de pasar a través de los controles de frontera en otro país.

El sesgo en un sistema de computación es un error sistemático y repetible. Dado que el AA lidia con grandes cantidades de datos, hasta una tasa de error pequeña puede agravarse o magnificar, y afectar enormemente a los resultados del sistema. Una decisión que un sistema de AA tome, en particular aquellos que procesan conjuntos de datos gigantescos, a menudo es una predicción estadística. De ahí que su precisión esté relacionada con el tamaño del conjunto de datos. Es probable que los conjuntos de datos de entrenamiento más grandes produzcan decisiones que sean más precisas y reduzcan la posibilidad de error.

El sesgo en los sistemas de IA/AA pueden tener como resultado prácticas discriminatorias, lo que en última instancia llevaría a exacerbar las desigualdades ya existentes o a generar otras nuevas. Para mayor información consúltese este explicador relacionado con el sesgo de la IA y la sección Riesgos de este recurso.

Inicio

¿De qué modo la IA y el AA son relevantes en el espacio cívico y para la democracia?

Colmillos de elefante retratados en Uganda. Los algoritmos de IA/AA y los datos históricos pueden emplearse en la observación de la vida silvestre para predecir las incursiones de los cazadores furtivos. Crédito de la fotografía: NRCN.

La difundida proliferación, rápido despliegue, escala, complejidad e impacto de la IA sobre la sociedad es un tema de gran interés y preocupación para los gobiernos, la sociedad civil, las ONG, organizaciones de derechos humanos, empresas y el público en general. Los sistemas de IA podrían requerir de diversos grados de interacción humana o ninguna en. Cuando se les aplica en el diseño, la operación y el suministro de servicios, la IA/AA brindan el potencial de proveer nuevos servicios y mejorar la velocidad, focalización, precisión, eficiencia, consistencia, calidad o performance de los ya existentes. Pueden brindar nuevas ideas al hacer visibles conexiones, relaciones y patrones antes no descubiertos, y ofrecer nuevas soluciones. Al analizar grandes cantidades de datos, los sistemas de AA ahorran tiempo, dinero y esfuerzos. Algunos ejemplos de la aplicación de la IA/AA en diferentes ámbitos incluyen el uso de algoritmos de IA/AA y datos históricos en la conservación de la vida silvestre para predecir las incursiones de los cazadores furtivos, y para descubrir nuevas especies de virus.

Diagnóstico microscópico de la tuberculosis en Uzbekistán. Los sistemas de IA/AA ayudan a los profesionales del cuidado de la salud en el diagnóstico médico y en la detección de enfermedades. Crédito de la fotografía: USAID.

Las capacidades predictivas de la IA y su aplicación así como del AA en la categorización, organización, clustering y búsqueda de información han traído mejoras en muchos campos y ámbitos, entre ellos el cuidado de la salud, el transporte, la gobernanza, educación, energía y en evitar accidentes, así como en la seguridad, la prevención del crimen, la vigilancia policial, la aplicación de la ley, la gestión urbana y el sistema judicial. Por ejemplo, el AA puede usarse para seguir el progreso y la efectividad de los programas de gobierno y filantrópicos. Las administraciones de las ciudades, las de las ciudades inteligentes, inclusive, emplean el AA para analizar datos acumulados a lo largo del tiempo acerca del consumo de energía, la congestión de tráfico, los niveles de contaminación y los desechos, para así monitorear y administrar estas cuestiones e identificar patrones en su generación, consumo y manejo.

Mapas digitales creados en Mugumu, Tanzania. La inteligencia artificial puede apoyar la planificación del desarrollo de la infraestructura y la preparación para los desastres. Crédito de la fotografía: Bobby Neptune para DAI.

La IA también se usa en el monitoreo del clima, el pronóstico del tiempo, la predicción de desastres y peligros, y la planificación del desarrollo de la infraestructura. En el cuidado de la salud, los sistemas de IA ayudan a los profesionales en el diagnóstico médico, la cirugía asistida por robots, una detección más fácil de enfermedades, la predicción de brotes epidémicos, el rastreo de la(s) fuente(s) de la propagación de enfermedades y así sucesivamente. La policía y las agencias de seguridad emplean sistemas de vigilancia basados en la IA/AA, sistemas de reconocimiento facial, drones, y la vigilancia policial predictiva para la seguridad y protección de la ciudadanía. De otro lado, muchas de estas aplicaciones plantean preguntas acerca de la autonomía individual, la privacidad, seguridad, la vigilancia de masas, la desigualdad social y su impacto negativo sobre la democracia (véase la sección Riesgos).

Peces cogidos en la costa de Kema, Célebes septentrional, Indonesia. El reconocimiento facial se usa para identificar las especies de pescado y contribuir a las prácticas de pesca sostenible. Crédito de la fotografía: cortesía de USAID SNAPPER.

La IA y el AA tienen ambos implicaciones tanto positivas como negativas para las políticas públicas así como para las elecciones, y para la democracia de modo más amplio. Si bien es cierto que los datos pueden usarse para maximizar la efectividad de una campaña mediante mensajes focalizados que ayuden a persuadir a posibles votantes, también pueden emplearse para suministrar propaganda o desinformación a públicos vulnerables. Durante la campaña presidencial de EE.UU de 2016, por ejemplo, Cambridge Analytica utilizó big data y el aprendizaje automático para adaptar los mensajes a los votantes basándose en predicciones a su susceptibilidad a distintos argumentos.

Durante las elecciones del Reino Unido y de Francia en 2017 se usaron, bots políticos para propagar desinformación en las redes sociales y filtrar mensajes electrónicos de campaña privados. Estos bots autónomos están “programados para propagar agresivamente mensajes políticos unilaterales para fabricar así la ilusión del apoyo popular”, o incluso disuadir a ciertas poblaciones de sufragar. Los deepfakes (audios o videos que han sido fabricados o alterados), algo posible gracias a la IA, también contribuyen a propagar la confusión y falsedades acerca de los candidatos políticos y otros actores relevantes. Aunque la inteligencia artificial puede usarse para exacerbar y amplificar la desinformación, también se la puede aplicar en posibles soluciones a este reto. Véase en la sección de Estudios de caso de este recurso, los ejemplos de cómo la industria de verificación de hechos viene aprovechando la inteligencia artificial para identificar y desmentir con mayor efectividad las narrativas falsas y engañosas.

Los ciberatacantes que buscan alterar los procesos electorales emplean el aprendizaje automático para focalizar eficazmente a las víctimas y diseñar estrategias con las cuales vencer las ciberdefensas. Es cierto que estas tácticas pueden usarse para prevenir los ciberataques, pero el nivel de inversión en tecnologías de inteligencia artificial por parte de actores maliciosos supera en muchos casos al de los gobiernos legítimos u otras entidades oficiales. Algunos de estos actores también emplean herramientas de vigilancia digital impulsadas por la IA para seguir y focalizarse en figuras de la oposición, defensores de los derechos humanos y otros críticos identificados.

Como ya se ha examinado en otra parte de este recurso, “el potencial que los sistemas automatizados de toma de decisiones tienen para reforzar sesgos y la discriminación, también tiene un impacto sobre el derecho a la igualdad y la participación en la vida pública”. El sesgo dentro de los sistemas de IA puede dañar a las comunidades históricamente subrepresentadas y exacerbar las divisiones de género existentes, así como los daños en línea que experimentan las mujeres candidatas, políticas, activistas y periodistas.

Las soluciones impulsadas por la IA pueden ayudar a mejorar la transparencia y la legitimidad de las estrategias de campaña, por ejemplo al aprovechar los bots políticos para el bien al ayudar a identificar artículos que contienen desinformación, o brindando una herramienta con la cual recolectar y analizar las preocupaciones de los votantes. La inteligencia artificial puede asimismo usarse para hacer que el trazado de los distritos electorales sea menos partidario (aun cuando en algunos casos también facilita el gerrymandering partidario) y prevenir o detectar fraudes, así como errores administrativos significativos. El aprendizaje automático puede informar la incidencia política prediciendo qué partes de una ley serán aprobadas a partir de evaluaciones algorítmicas del texto de la ley, con cuántos auspiciadores o partidarios cuenta, e incluso en qué parte del año es presentada.

El impacto pleno que el despliegue de sistemas de IA habrá de tener sobre las personas, la sociedad y la democracia no es conocido ni cognoscible, lo cual crea muchos problemas legales, sociales, reguladores, técnicos y éticos. El tema del sesgo nocivo en la inteligencia artificial y su intersección con los derechos humanos y los derechos civiles ha sido motivo de preocupación para gobiernos y activistas. El Reglamento General de Protección de Datos (RGPD) de la Unión Europea cuenta con disposiciones acerca de la toma de decisiones automatizada, el perfilamiento inclusive. En febrero de 2020 la Comisión Europea presentó un libro blanco sobre la IA como precuela a una posible legislación que rigiera su uso en la UE, en tanto que otra de sus organizaciones hizo recomendaciones sobre el impacto de los sistemas algorítmicos en los derechos humanos. Alemania, Francia, Japón e India asimismo han esbozado estrategias de IA para las políticas y leyes. El físico Stephen Hawking una vez dijo, “…el éxito en la creación de la IA podría ser el más grande acontecimiento en la historia de nuestra civilización. Pero también podría ser el último, salvo que aprendamos cómo evitar los riesgos”.

Inicio

Oportunidades

La inteligencia artificial y el aprendizaje automático pueden tener impactos positivos cuando se los emplea para promover la democracia, los derechos humanos y el buen gobierno. Lea a continuación cómo reflexionar de modo más eficaz y seguro acerca de la inteligencia artificial y el aprendizaje automático en su trabajo.

Detecte y venza los sesgos

Aunque la inteligencia artificial, como ya vimos, puede reproducir los sesgos humanos, también puede ser usada para combatir los sesgos inconscientes en contextos tales como el reclutamiento laboral. Los algoritmos diseñados de modo responsable pueden sacar sesgos escondidos a la luz, y en algunos casos empujar a la gente hacia resultados menos sesgados, por ejemplo escondiendo el nombre, la edad y otras características en el currículum de los candidatos que activen los sesgos.

Mejorar la seguridad y protección

Los sistemas de IA pueden usarse para detectar ataques a la infraestructura pública, como un ciberataque o un fraude con tarjetas de crédito. A medida que el fraude en línea se vuelve más desarrollado, las compañías, gobiernos y personas deben poder identificarlo rápidamente, o incluso prevenir que se dé. El aprendizaje automático puede ayudar a identificar patrones ágiles e inusuales que igualan o superan las estrategias tradicionales usadas para evitar la detección.

Moderar contenidos en línea nocivos

Cada segundo se sube una cantidad enorme de contenido a la internet y a las redes sociales. Simplemente hay demasiados videos, fotos y publicaciones como para que los humanos puedan revisarlos manualmente. Las herramientas de filtrado, como los algoritmos y las técnicas de aprendizaje automático, son usadas por muchas plataformas de medios sociales para filtrar los contenidos que violan sus condiciones de servicio (como materiales de abuso sexual infantil, violaciones de copyright o spam). La inteligencia artificial está en efecto operando en su cuenta de correo electrónico, filtrando automáticamente los contenidos de marketing no deseados de su buzón principal. El reciente arribo de los deepfakes y otros contenidos generados por computadora requieren de tácticas de identificación igual de avanzadas. Los verificadores de información y otros actores que trabajan para reducir [sic: diffuse] el peligroso y engañoso poder de los deepfakes vienen desarrollando su propia inteligencia artificial para identificar a estos medios de comunicación como falsos.

Búsquedas en la web

Los motores de búsqueda operan con sistemas algorítmicos de ranking. Estos motores ciertamente no están libres de serios sesgos y defectos, pero nos permiten ubicar información en las vastas extensiones de la internet. Los motores de búsqueda en la web (como Google y Bing) o dentro de plataformas y páginas web (como las búsquedas dentro de Wikipedia o The New York Times) pueden mejorar sus sistemas algorítmicos de ranking empleando el aprendizaje automático para así favorecer los resultados de alta calidad que pueden ser beneficiosos para la sociedad. Por ejemplo, Google tiene una iniciativa para resaltar reportajes originales, que prioriza el primer caso de una noticia antes que las fuentes que vuelven a publicar la información.

Traducción

El aprendizaje automático ha hecho posibles unos avances realmente increíbles en la traducción. Por ejemplo, DeepL es una pequeña compañía de traducción automática que ha superado las capacidades traductoras hasta de las más grandes empresas tecnológicas. Otras compañías también han creado algoritmos de traducción que permiten a personas de todo el mundo traducir textos a su lengua preferida, o comunicarse en otras lenguas fuera de aquellas que conocen bien, lo que ha promovido el derecho fundamental del acceso a la información, así como el derecho a la libertad de expresión y a ser escuchado.

Inicio

Riesgos

El uso de tecnologías emergentes como la IA puede también generar riesgos para la democracia y en los programas de la sociedad civil. Lea a continuación cómo aprender a discernir los posibles peligros asociados con la inteligencia artificial y el aprendizaje automático en el trabajo de DR, así como de qué formas mitigar las consecuencias no intencionales, y también las intencionales.

Discriminación de grupos marginados

Hay varias formas en que la IA puede tomar decisiones que podrían generar la discriminación, entre ellas cómo se definen la “variable objetivo” y las “etiquetas de clase en el transcurso del proceso de etiquetado de los datos de entrenamiento; cuando se recogen los datos de entrenamiento; durante la selección de características; y cuando se identifican las proxies. Es asimismo posible configurar intencionalmente un sistema de IA para que discrimine a uno o más grupos. Este video explica de qué modo los sistemas de reconocimiento facial disponibles comercialmente, a los que se entrenó con conjuntos de datos sesgados racialmente, discriminan a las personas de piel oscura, a las mujeres y a las de género diverso.

La precisión de los sistemas de IA se basa en la forma en que el AA procesa el Big Data, lo cual a su vez depende del tamaño del conjunto de datos. Cuanto más grande sea, tanto más probable es que las decisiones del sistema sean más precisas. Sin embargo, es menos probable que las personas negras y la gente de color (PoC), los discapacitados, las minorías, los indígenas, la gente LGBTQ+ y otras minorías más estén representadas en un conjunto de datos debido a la discriminación estructural, el tamaño del grupo o a actitudes externas que impiden su participación plena en la sociedad. El sesgo en los datos de entrenamiento refleja y sistematiza la discriminación existente. Y dado que un sistema de IA es a menudo una caja negra, resulta difícil establecer por qué la IA toma ciertas decisiones acerca de ciertas personas o grupos, o probar concluyentemente que ha tomado una decisión discriminatoria. Resulta por ende difícil evaluar si ciertas personas fueron discriminadas debido a su raza, sexo, estatus marginal u otras características protegidas. Por ejemplo, los sistemas de IA usados en la vigilancia policial predictiva, la prevención del delito, la aplicación de la ley y el sistema de justicia penal son, en cierto sentido, herramientas para la evaluación del riesgo. Empleando datos históricos y algoritmos complejos generan puntajes predictivos que buscan indicar la probabilidad de que se cometa un delito, la ubicación y momento probables, y las personas que posiblemente estén involucradas. Cuando se depende de datos sesgados, o de estructuras de toma de decisiones sesgadas, estos sistemas pueden terminar reforzando estereotipos acerca de los grupos desfavorecidos, marginados o minoritarios.

Un estudio efectuado por la Royal Statistical Society señala que la “…vigilancia predictiva de los delitos relacionados con las drogas tuvo como resultado una vigilancia cada vez más desproporcionada de comunidades históricamente sobre-vigiladas… y en casos extremos, el contacto policial adicional generará oportunidades adicionales de violencia policial en áreas sobre-vigiladas. Cuando el costo de la vigilancia policial es desproporcionado en comparación con el nivel de los delitos, esto equivale a una política discriminatoria”. De igual modo, cuando las aplicaciones móviles para una navegación urbana segura o el software de puntaje crediticio, banca, seguros, cuidado de la salud y la selección de empleados y estudiantes universitarios depende de datos y decisiones sesgados, entonces reforzarán la desigualdad social y los estereotipos negativos y nocivos.

Los riesgos asociados con los sistemas de IA se exacerban cuando éstos toman decisiones o formulan predicciones que involucran a grupos vulnerables tales como los refugiados, o acerca de situaciones de vida o muerte, como en el caso del cuidado médico. Un informe de 2018 preparado por el Citizen Lab de la Universidad de Toronto anota: “Muchos [de los inmigrantes o de quienes buscan asilo] provienen de países asolados por la guerra que buscan protección de la violencia y la persecución. La naturaleza matizada y compleja de muchos refugiados y pedidos de asilo puede ser pasada por alto por estas tecnologías, lo cual provocará serias violaciones de los derechos humanos protegidos internacional y localmente, bajo la forma de sesgos, discriminación, violaciones de la privacidad, cuestiones del debido proceso y de justicia procesal, entre otros. Estos sistemas habrán de tener ramificaciones de vida o muerte para la gente común, muchas de las cuales están huyendo para salvar su vida”. En el caso de los usos médicos y de cuidado de la salud, lo que está en juego es particularmente alto puesto que una decisión errada tomada por el sistema de IA podría potencialmente poner vidas en riesgo, o alterar drásticamente la calidad de vida o el bienestar de las personas que se ven afectadas por ella.

Vulnerabilidades en la seguridad

Los hackers maliciosos y las organizaciones criminales pueden emplear los sistemas de AA para identificar vulnerabilidades y poner la mira en la infraestructura pública o en sistemas privados como la internet de las cosas (IdC) y los vehículos autónomos.

Si una entidad maliciosa pone la mira en los sistemas de IA empleados en la infraestructura pública, como las ciudades inteligentes, redes eléctricas inteligentes, instalaciones nucleares, instalaciones para el cuidado de la salud y los sistemas bancarios, entre otros “serán más difíciles de proteger, puesto que estos ataques probablemente se harán más automatizados y complejos, y el riesgo de los fallos en cascada resultará más difícil de predecir. Un adversario inteligente puede o bien intentar descubrir y explotar las debilidades ya existentes en los algoritmos, o sino crear uno al cual posteriormente podrá aprovechar”. El aprovechamiento puede darse, por ejemplo, mediante un ataque de envenenamiento, que interfiere con los datos de entrenamiento cuando se usa el aprendizaje automático. Los atacantes podrían asimismo “usar algoritmos de AA para identificar automáticamente vulnerabilidades y optimizar los ataques estudiando y aprendiendo en tiempo real acerca de los sistemas que tienen en la mira”.

Privacidad y protección de datos

El uso de sistemas de IA sin dispositivos de seguridad y mecanismos de reparación puede plantear muchos riesgos a la privacidad y la protección de datos. Las empresas y gobiernos recolectan inmensas cantidades de datos personales para así entrenar a los algoritmos de los sistemas de IA que brindan servicios o efectúan tareas específicas. Los delincuentes, gobiernos intolerantes y personas con intenciones malignas a menudo ponen la mira en estos datos para así tener un beneficio económico o político. Por ejemplo, de filtrarse los datos de salud captados de las aplicaciones de celulares inteligentes y aparatos vestibles conectados a la internet, podrían ser usados incorrectamente por agencias de crédito, compañías de seguros, brókeres de información, cibercriminales, etc. La cuestión no son solo las filtraciones, sino también los datos que la gente entrega voluntariamente sin control sobre cómo serán usados más adelante. Esto incluye lo que compartimos tanto con las compañías como con las agencias de gobierno. La violación o abuso de los datos no personales, como los datos anonimizados, las simulaciones, los datos sintéticos o las normas generalizadas de procedimientos, podrían también afectar los derechos humano.

Chilling effect (efecto inhibidor)

Los sistemas de IA usados para la vigilancia y protección, condenas penales, fines legales, etc., se convierten en una nueva vía para el abuso del poder por parte del Estado, para controlar a la ciudadanía y a los disidentes políticos. El temor al perfilamiento, la puntuación, la discriminación y la vigilancia digital omnipresente pueden tener un efecto inhibidor sobre la capacidad o la disposición de la ciudadanía a ejercer sus derechos o a expresarse. Muchas personas modificarán su comportamiento a fin de conseguir los beneficios de contar con un buen puntaje y de evitar las desventajas que se siguen de tener uno malo.

Opacidad (naturaleza de caja negra de los sistemas de IA)

Podemos interpretar la opacidad como ya sea la falta de transparencia, ya de inteligibilidad. Los algoritmos, el código del software, el procesamiento detrás de escena y el proceso mismo de toma de decisiones podrían no ser inteligibles para quienes no son expertos o profesionales especializados. Por ejemplo, en los asuntos legales o judiciales, las decisiones que un sistema de IA toma no viene con explicaciones, a diferencia de las de los jueces, quienes están obligados a justificar su orden legal o juicio.

Desempleo tecnológico

Los sistemas de automatización, los de IA/AA inclusive, vienen usándose cada vez más para reemplazar el trabajo humano en diversos ámbitos e industrias, eliminando así un gran número de empleos y generando un desempleo estructural (al cual se conoce como desempleo tecnológico). Con la introducción de los sistemas de IA/AA se perderán algunos tipos de trabajos, otros serán transformados, y aparecerán otros nuevos. Es probable que los nuevos trabajos requieran de habilidades específicas o especializadas que sean adaptables a dichos sistemas.

Pérdida de autonomía individual y de la condición de persona

El perfilamiento y la puntuación en la IA despiertan el temor de que las personas sean deshumanizadas y reducidas a un perfil o puntaje. Los sistemas de toma de decisión automatizados podrían afectar el bienestar, la integridad física y la calidad de vida. Esto afecta lo que constituye el consentimiento de una persona (o la falta del mismo), la forma en que se dio, comunicó y entendió el consentimiento, así como el contexto dentro del cual es válido. “[E]l debilitamiento de la base libre de nuestro consentimiento individual —ya sea mediante una distorsión total de la información o incluso con tan solo la ausencia de transparencia— pone en peligro las bases mismas de cómo expresamos nuestros derechos humanos y hacemos que otros rindan cuentas por su privación abierta (o incluso latente)”. – Human Rights in the Era of Automation and Artificial Intelligence

Inicio

Preguntas

Hágase estas preguntas si está intentando entender las implicaciones que la inteligencia artificial y el aprendizaje automático tendrán en su entorno laboral, o si está considerando usar algunos aspectos de estas tecnologías como parte de su programación DRG:

  1. ¿La inteligencia artificial o el aprendizaje automático son una herramienta apropiada, necesaria y proporcional para usarla en este proyecto y con esta comunidad?
  2. ¿Quién está diseñando y supervisando la tecnología? ¿Pueden explicar lo que está sucediendo en las distintas etapas del proceso?
  3. ¿Qué datos están usándose para diseñar y entrenar la tecnología? ¿De qué modos podrían generar una tecnología sesgada o de funcionamiento defectuoso?
  4. ¿Qué razones tiene para confiar en las decisiones de la tecnología? ¿Entiende por qué está obteniendo cierto resultado, o podría acaso haber un error en algún lado? ¿Hay algo que no pueda ser explicado?
  5. ¿Confía en que la tecnología trabajará como se desea cuando la use con su comunidad y en su proyecto, en lugar de en un entorno de laboratorio (o uno teórico)? ¿Qué elementos de su situación podrían causar problemas o cambiar el funcionamiento de la tecnología?
  6. ¿Quién está analizando e implementando la tecnología de IA/AA? ¿Entienden la tecnología y son conscientes de sus posibles defectos y peligros? ¿Es posible que tomen decisiones sesgadas, ya sea por malinterpretar la tecnología o por alguna otra razón?
  7. ¿Con qué medidas cuenta para identificar y hacer frente a los sesgos potencialmente dañinos de la tecnología?
  8. ¿Con qué dispositivos de seguridad reguladores y mecanismos de reparación cuenta, para las personas que sostienen que la tecnología ha sido injusta o que ha abusado de ellos de algún modo?
  9. ¿Hay alguna forma de que su tecnología de IA/AA pueda perpetuar o incrementar las desigualdades sociales, incluso si los beneficios de su uso superan estos riesgos? ¿Qué hará para minimizar estos problemas y quedar alerta a ellos?
  10. ¿Está seguro de que la tecnología acata las normas y estándares legales relevantes, el RGPD inclusive?
  11. ¿Hay alguna forma de que esta tecnología pueda no discriminar a la gente por sí misma, pero que si pueda provocar discriminación o alguna otra violación de derechos, por ejemplo cuando se la aplica en contextos diferentes, o si se comparte con actores no capacitados? ¿Qué podría hacer para prevenir esto?

Inicio

Estudios de caso

Aprovechando la inteligencia artificial para promover la integridad de la información

eMonitor+, del Programa de las Naciones Unidas para el Desarrollo, es una plataforma que opera con IA y que ayuda a “escanear en línea las publicaciones de las redes sociales para identificar violaciones electorales, desinformación, discursos de odio, polarización política y pluralismo, así como violencia en línea contra las mujeres”. El análisis de datos facilitado por eMonitor+ permite a las comisiones electorales y las partes interesadas de los medios de comunicación “observar la prevalencia, la naturaleza y el impacto de la violencia en línea. La plataforma depende del aprendizaje automático para seguir y analizar contenidos en los medios digitales y generar representaciones gráficas para la visualización de datos. eMonitor+ ha sido utilizado por Asociación Civil Transparencia y Ama Llulla de Perú, para mapear y analizar la violencia y el discurso de odio digitales en los diálogos políticos, así como por la Comisión Supervisora de las Elecciones durante la elección parlamentaria libanesa de 2022, para monitorear las posibles violaciones electorales, los gasto de campaña y la desinformación. La Alta Comisión Nacional Electoral de Libia también empleó a eMonitor+ para monitorear e identificar en línea la violencia contra las mujeres durante las elecciones.

“Cómo los verificadores de información de Nigeria están usando la IA contra la desinformación electoral”

Cómo los verificadores de información de Nigeria están usando la IA contra la desinformación electoral”

Antes de la elección presidencial de Nigeria en 2023, Full Fact, la organización verificadora de información del RU, “ofreció su suite de inteligencia artificial —que consta de tres herramientas que trabajan simultáneamente para automatizar los prolongados procesos de verificación de la información— para así ampliar enormemente esta capacidad en Nigeria”. Según Full Fact, estas herramientas no buscan reemplazar a los verificadores humanos, sino más bien ayudarles en el monitoreo y revisión manuales, que toman demasiado tiempo, dándoles así “más tiempo para hacer las cosas en que son mejores: entender lo que importa en el debate público, cuestionar las afirmaciones, revisar datos, hablar con expertos y compartir sus hallazgos”. Las herramientas expandibles, que incluyen funciones de búsqueda, alertas y en vivo, permiten a los verificadores “monitorear páginas web de noticias, redes sociales y transcribir afirmaciones hechas en vivo en la TV o la radio, para así hallar afirmaciones que verificar”.

Monitoreando el desarrollo de los cultivos: Agroscout

Monitoreando el desarrollo de los cultivos: Agroscout

El creciente impacto del cambio climático podría reducir aún más el rendimiento de los cultivos, especialmente en las regiones del mundo de mayor inseguridad alimentaria. Y nuestros sistemas alimentarios son responsables por alrededor del 30% de las emisiones de gases de efecto invernadero. La startup israelí AgroScout imagina un mundo en donde los alimentos se cultivan de modo más sostenible. “Nuestra plataforma usa IA para monitorear el desarrollo de los cultivos en tiempo real, y así planear con mayor precisión las operaciones de procesamiento y manufactura entre regiones, cultivadores y criadores”, dijo Simcha Shore, fundador y CEO de AgroScout. ‘Al utilizar la tecnología de la IA, AgroScout detecta a pestes y enfermedades tempranamente, lo que permite a los granjeros aplicar tratamientos precisos que reducen el uso de agroquímicos hasta en 85%. Esta innovación ayuda a minimizar el daño ambiental provocado por los agroquímicos tradicionales, lo que hace una contribución positiva a las prácticas agrícolas sostenibles’”.

Aprendizaje automático para la paz

El Machine Learning for Peace Project (Proyecto Aprendizaje Automático para la Paz) busca entender cómo es que el espacio cívico viene cambiando en países de todo el mundo que usan técnicas de aprendizaje automático de última generación. Al aprovechar las últimas innovaciones en el procesamiento de lenguaje natural, el proyecto clasifica “un corpus enorme de noticias digitales en 19 tipos de ‘acontecimientos’ de espacio cívico y 22 tipos de acontecimientos de Resurgent Authoritarian Influence (RAI, influencia autoritaria renaciente), que captan los esfuerzos realizados por regímenes autoritarios para influir en los países en vías de desarrollo”. Entre los “acontecimientos” del espacio cívico que vienen siguiéndose están el activismo, los golpes, las actividades electorales, los cambios legales y las protestas. Los datos de los acontecimientos del espacio cívico se combinan con “datos económicos de alta frecuencia para identificar impulsores claves del espacio cívico y predecir cambios en los meses siguientes”. En última instancia, el proyecto espera servir como una “herramienta útil para los investigadores que buscan datos ricos y de alta frecuencia sobre los regímenes políticos, así como para los decisores de políticas y activistas que luchan para defender la democracia en todo el mundo”.

Seguridad alimentaria: detectando enfermedades en cultivos usando el análisis de imágenes

Seguridad alimentaria: detectando enfermedades en cultivos usando el análisis de imágenes

“Las enfermedades de plantas son una amenaza no solo para la seguridad alimentaria a escala global, sino que pueden además tener consecuencias desastrosas para los pequeños agricultores cuya subsistencia depende de cultivos saludables”. Como primer paso para complementar las soluciones existentes al diagnóstico de enfermedades con un sistema de diagnóstico asistido por celulares, los investigadores usaron un conjunto de datos público de 54,306 imágenes de hojas de plantas enfermas y saludables, para así entrenar una “red neural convolucional profunda” que identifique automáticamente 14 especies de cultivos diferentes y 26 enfermedades singulares (o su ausencia).

Inicio

Referencias

A continuación encontrará los trabajos citados en este recurso.

Recursos adicionales

Inicio

Categories

Automatización

¿Qué es la automatización?

Una trabajadora en la línea de ensamblaje de una fábrica de cableado de autos en Bizerta, Túnez. La automatización del trabajo afecta desproporcionadamente a las mujeres, los pobres y otros miembros vulnerables de la sociedad. Crédito de la fotografía. Photo credit: Alison Wright for USAID, Tunisia, Africa

La automatización involucra técnicas y métodos a los que se aplica para permitir que las máquinas, dispositivos y sistemas funcionen con poca o ninguna participación humana. Se la usa, por ejemplo, en aplicaciones para el manejo de los semáforos de una ciudad, navegar aviones, manejar y configurar distintos elementos de una red de telecomunicaciones, en cirugía asistida por robots, y hasta en la narración automatizada (que usa software de inteligencia artificial para crear relatos verbales). La automatización puede mejorar la eficiencia y reducir los errores, pero también crea nuevas oportunidades para éstos, e introduce nuevos costos y retos para los gobiernos y la sociedad.

¿Cómo funciona la automatización?

Los procesos pueden ser automatizados programando ciertos procedimientos para que se efectúen sin intervención humana (como un pago recurrente de una tarjeta de crédito o app del celular), o sino vinculando dispositivos electrónicos para que se comuniquen directamente entre sí (como los vehículos autónomos que se comunican con otros y con la infraestructura vial). La automatización puede involucrar el uso de sensores de temperatura y de luz, alarmas, microcontroladores, robots y más. La automatización del hogar puede, por ejemplo, incluir a asistentes para la casa como Amazon Echo, Google Home y OpenHAB. Algunos sistemas de automatización son virtuales, por ejemplo los filtros de correo electrónico que automáticamente clasifican los mensajes entrantes en distintas carpetas, y los sistemas de moderación del contenido en línea con IA.

La arquitectura y el funcionamiento exactos de los sistemas de automatización dependen de su finalidad y aplicación. Sin embargo no debiéramos confundir la automatización con la inteligencia artificial en donde un proceso liderado por un algoritmo ‘aprende’ y cambia en el tiempo: por ejemplo, un algoritmo que examina miles de solicitudes de empleo y aprende a partir de los patrones presentes en ellas está usando inteligencia artificial, en tanto que un chatbot que responde a las preguntas de los candidatos está usando la automatización.

Para mayor información acerca de los distintos componentes de los sistemas de automatización, lea también los recursos acerca de la Internet de las cosas y sensores, robots y drones, and biométrica.

Inicio

¿De qué modo es la automatización relevante en el espacio cívico y para la democracia?

Los procesos automatizados pueden construirse para que incrementen la transparencia, precisión, eficiencia y escala. Pueden ayudar a minimizar el esfuerzo (el trabajo) y el tiempo, reducir errores y costos, mejorar la calidad y/o la precisión en tareas/procesos, efectuar labores que son demasiado agotadoras, peligrosas o que caen más allá de las capacidades físicas de los humanos, y en general libera a éstos de tareas repetitivas y monótonas.

Desde una perspectiva histórica la automatización no es nueva: la primera revolución industrial en el siglo XVIII unció el poder del vapor y el agua; la revolución tecnológica de la década de 1880 se basó en ferrocarriles y telégrafos, y la revolución digital del siglo XX vio los inicios de la computación. Cada una de estas transiciones trajo consigo cambios fundamentales no sólo en la producción industrial y la economía, sino también en la sociedad, el gobierno y las relaciones internacionales.

Los procesos automatizados, cuando los gobiernos los emplean, prometen servicios estatales con mayor velocidad, eficiencia y cobertura. A esto a menudo se denomina e-gobierno, gobernanza electrónica o gobierno digital. El e-gobierno incluye las comunicaciones e información que el gobierno comparte en la red (a veces publicando hasta presupuestos y agendas gubernamentales), la facilitación de transacciones financieras en línea como el llenado electrónico de las declaraciones de impuestos, la digitalización de los historiales médicos, el sufragio electrónico y la ID digital.

La automatización puede además usarse en las elecciones para ayudar a contar los votos, registrar a los votantes y monitorear la participación electoral para así incrementar la confianza en la integridad del proceso democrático. Sin la automatización, el conteo de votos puede tomar semanas o meses, y podría llevar a que los resultados sean cuestionados por fuerzas antidemocráticas y a un posible desencanto de los votantes con el sistema democrático. El sufragio electrónico y el conteo automatizado de los votos ya ha quedado politizado en muchos países como Kazajistán y Pakistán, pero muchos países están adoptando cada vez más los sistemas de votación electrónicos para ayudar a incrementar la participación de los electores y acelerar el proceso electoral.

Un trabajador de salud recibe información acerca de un brote epidémico en Brewerville, Liberia. Los procesos automatizados prometen suministrar servicios estatales con mayor velocidad, eficiencia y cobertura. Crédito de la fotografía: Sarah Grile.

La automatización de los servicios gubernamentales genera numerosos beneficios, tal como lo explica el K4D helpdesk del RU al reducir el costo de la entrega del servicio, mejorar la calidad y la cobertura (por ejemplo, mediante la telemedicina o los drones), fortalecer las comunicaciones, el monitoreo y la retroalimentación, y en algunos casos alentando la participación ciudadana a nivel local. In Indonesia, por ejemplo, la Agencia del Servicio Civil (BKN) introdujo un sistema de pruebas asistido por computadora (CAT), para alterar el viejo sistema previo de prueba manual que generaba oportunidades desenfrenadas para la corrupción en el reclutamiento del servicio civil por parte de los funcionarios del ministerio. Con el nuevo sistema, la base de datos de preguntas está firmemente controlada y los resultados se publican en tiempo real fuera del centro de pruebas.

In India, se usa un sistema automatizado basado en una computadora diseñada específicamente (una Advanced Virtual RISC) y el estándar GSM (Global System for Mobile) usual de comunicaciones, para informar a los agricultores las condiciones exactas de los campos y señalar los siguientes pasos necesarios, con funciones de comando tales como el riego, arado, la utilización de semillas y el efectuar otras actividades agrícolas.

Dron usado para programar el riego en la parte meridional de Bangladés. Los sistemas automatizados tienen vastas aplicaciones en la agricultura. Crédito de la fotografía: Alanuzzaman Kurishi.

Al igual que las revoluciones industriales previas, la automatización cambia la naturaleza del trabajo y de no ser planificados cuidadosamente, dichos cambios podrían provocar el desempleo en ciertos sectores. Retirar a los humanos de los procesos trae consigo nuevas oportunidades para los errores (como el ‘sesgo de la automatización’) y plantea nuevas preguntas legales y éticas. Véase más adelante la sección Riesgos.

Inicio

Oportunidades

Centro de control de distribución de energía (PDC) de la Islamabad Electric Supply Company (IESCO), Pakistán. Los medidores inteligentes permiten monitorear la demanda y oferta energética, y el rechazo de carga en tiempo real. Crédito de la fotografía: USAID.

La automatización puede tener impactos positivos cuando se la usa para promover la democracia, los derechos humanos y las cuestiones de gobernanza. Lea a continuación cómo reflexionar de modo más eficaz y seguro acerca de la automatización en su trabajo.

Incremento en la productividad

La automatización puede mejorar el output al mismo tiempo que reduce el tiempo y trabajo requeridos, incrementando así la productividad de los trabajadores y la demanda de otros tipos de trabajo. Por ejemplo, ella puede optimizar la revisión de documentos, recortando el tiempo que los abogados necesitan para revisar los documentos o los académicos las fuentes, etc. En Azerbaiyán, el gobierno se asoció con el sector privado en el uso de un sistema automatizado para reducir el número pendiente de casos judiciales relativamente simples, como las demandas de cuentas impagas. Cuando la automatización incrementa la calidad de los servicios o bienes y/o reduce su costo, resulta posible cubrir una demanda más significativa de bienes o de servicios.

Mejoras en los procesos y outputs

La automatización puede mejorar la velocidad, eficiencia, calidad, consistencia y cobertura del suministro de un servicio y reducir los errores humanos, el tiempo invertido y los costos. Puede por ende hacer posible que las actividades crezcan en escala. Por ejemplo, el PNUD y el gobierno de las Maldivas la usaron para crear mapas en 3-D de las islas y graficar su topografía. Tener esta información registrada acelerará los esfuerzos de socorro y rescate en caso de desastres. El uso de drones también redujo el tiempo y el dinero requeridos para llevar a cabo esta labor: el mapeo de 11 islas usualmente tomaba casi un año, pero el uso de un dron redujo esto a un día. Véanse ejemplos adicionales en el recurso sobre Robots y drones.

Optimizar una tarea automatizada por lo general requiere de trade-offs entre el costo, la precisión, el margen de error permisible y la escala. A veces podría necesitar que toleremos más errores a fin de reducir así los costos o alcanzar una escala más grande. Para mayor información véase la sección “Knowing when automation offers a suitable solution to the challenge at hand (Saber cuándo la automatización ofrece una solución idónea para el problema a mano)” en Automation of government processes (Automatización de los procesos gubernamentales).

En el caso de los procesos democráticos, la automatización puede ayudar facilitando el acceso a los votantes que no pueden viajar a los centros de votación vía el voto electrónico remoto, o usando sistemas accesibles en dichos centros. Es más, el uso de la automatización en el conteo de los votos puede ayudar a disminuir los errores en algunos casos e incrementar la confianza en el proceso democrático.

Incremente la transparencia

La automatización puede incrementar la transparencia haciendo que los datos y la información estén fácilmente a disposición del público, construyendo así su confianza y ayudando a la rendición de cuentas. En la India, el Departamento Estatal de Transporte de Karnataka cuenta con centros de exámenes de conducir automatizados esperando así eliminar los sobornos en la emisión de las licencias de conductor. Una serie de cámaras de alta definición y sensores, colocados a lo largo de la pista de prueba, captan el movimiento del vehículo, en tanto que un sistema computarizado decide si el conductor ha aprobado la prueba o si ha sido reprobado. Véase también “Are emerging technologies helping win the fight against corruption in developing countries? (¿Las tecnologías emergentes están ayudando a combatir la corrupción en los países en vías de desarrollo?)”.

Inicio

Riesgos

El uso de las tecnologías emergentes puede también crear riesgos en los programas de la sociedad civil. Lea a continuación cómo discernir los posibles peligros asociados con la automatización en el trabajo DRG, así como de qué modo mitigar las consecuencias involuntarias y voluntarias.

Cuestiones laborales

Cuando la automatización se usa para reemplazar trabajadores humanos, la pérdida resultante de puestos de trabajo provoca un desempleo estructural al que se conoce como “desempleo tecnológico”. El desempleo estructural afecta de modo desproporcionado a las mujeres, los pobres y otros miembros vulnerables de la sociedad, salvo que sean vueltos a capacitar y se les brinde la protección adecuada La automatización además requiere de mano de obra calificada que pueda operar, supervisar o mantener sistemas automatizados, y eventualmente crea puestos para una parte más pequeño de la población. Pero el impacto inmediato de esta transformación laboral puede ser perjudicial para la gente y las comunidades que no tienen redes de seguridad social u oportunidades para encontrar otro trabajo.

Además se han establecido vínculos entre la creciente automatización y el alza en la preferencia por los políticos populistas, a medida que la pérdida de empleos comienza a afectar en particular a los trabajadores de bajos ingresos. Un estudio publicado en Proceedings of the National Academy of Sciences (PNAS) halló una correlación entre el impacto de la globalización y la automatización de un lado, y la creciente participación electoral de los partidos políticos populistas de derecha en varios países europeos del otro. Si bien la automatización puede tener un impacto positivo en la utilidad total, los trabajadores no educados y con bajos salarios podrían sentirse particularmente golpeados al mantenerse su salario bajo y sus labores ser reemplazadas con sistemas automatizados.

La discriminación de los grupos marginados y las minorías, y la creciente desigualdad social

Los sistemas automatizados equipados con inteligencia artificial (IA) pueden producir resultados que discriminan a algunos grupos marginados y minoritarios, cuando el sistema ha aprendido a partir de patrones de aprendizaje, conjuntos de datos o de una toma de decisiones humana sesgados. Los outputs de sistemas automatizados equipados con IA podrían reflejar sesgos sociales, prejuicios y un trato discriminatorio dado a ciertos grupos en la vida real. Los sesgos podrían también darse debido a la implementación humana de sistemas automatizados, por ejemplo cuando no funcionan en el mundo real como sí lo hicieron en un laboratorio o entorno teórico, o cuando los humanos que trabajan con las máquinas malinterpretan o usan incorrectamente la tecnología automatizada.

Hay numerosos ejemplos de discriminación, racial y de otro tipo, que fueron ya replicadas, ya magnificadas por la automatización. Para dar un ejemplo tomado del campo de la vigilancia policial predictiva, luego de efectuar una investigación en 2016 ProPublica reportó que COMPAS, una herramienta de IA basada en datos que buscaba asistir a los jueces de los EE.UU., estaba sesgada contra la población negra cuando establecía si un delincuente condenado cometería más delitos en el futuro. Para mayor información sobre la vigilancia policial predictiva véase “How to Fight Bias with Predictive Policing” (Cómo combatir el sesgo con la vigilancia policial predictiva”) y “A Popular Algorithm Is No Better at Predicting Crimes Than Random People (“Un algoritmo popular no predice mejor los delitos que personas aleatorias”).

Estos riesgos también existen en otros ámbitos. El informe titulado “Bots at the gate: A human rights analysis of automated decision-making in Canada’s immigration and refugee system” (“Bots en la puerta: un análisis de derechos humanos de la toma de decisiones automatizada en el sistema de inmigración y refugiados de Canadá”), publicado por la Universidad de Toronto y Citizen Lab, señala que “[m]uchos [de los que buscan asilo y de los migrantes] provienen de países asolados por la guerra y que buscan protección de la violencia y la persecución. La naturaleza matizada y compleja de muchos pedidos de refugio e inmigración se pierde en estas tecnologías, lo que genera serias violaciones de derechos humanos protegidos internacional y nacionalmente bajo la forma de sesgos, discriminación, violaciones de la privacidad, el debido proceso y de cuestiones de justicia procesal, entre otros Estos sistemas tendrán ramificaciones de vida o muerte para la gente común, muchos de los cuales están huyendo para salvar su vida”.

Protección legal insuficiente

Las leyes y regulaciones existentes podrían no ser aplicables a los sistemas de automatización, y allí donde sí lo son, la aplicación podría no estar bien definida. No todos los países cuentan con leyes que protegen a las personas de estos peligros. Según el RGPD (el Reglamento General de Protección de Datos europeo), las personas tienen el derecho a no quedar sujetas a una decisión basada únicamente en un procesamiento automatizado, lo que incluye el perfilamiento. En otras palabras, son humanos los que deben supervisar las decisiones importantes que afectan a las personas. Pero no todos los países tienen estas normas o las respetan, y ni siquiera el RGPD es hecho valer en todas las situaciones. Mientras tanto, las personas tienen que reclamar activamente sus derechos y cuestionar estas decisiones, usualmente buscando asistencia legal, lo que cae más allá de las posibilidades de muchos de ellos. Los grupos perjudicados por esta discriminación tienden a tener menos recursos y un acceso limitado a la protección de los derechos humanos, lo que les permitiría cuestionar tales decisiones.

Sesgos de la automatización

La gente tiende a tener fe en la automatización y a creer que la tecnología es precisa, neutral y que no discrimina. Podemos describir esto como el “sesgo de la automatización”: cuando los humanos que trabajan con o supervisan los sistemas automatizados tienen a ceder la responsabilidad a la máquina, y confían en su capacidad para tomar decisiones de modo acrítico. Se ha mostrado que el sesgo de la automatización tiene impactos perjudiciales en los sectores automatizados, lo que incluye la generación de errores en el cuidado de la salud. Este sesgo también tiene un papel en la discriminación descrita líneas arriba.

Preocupaciones éticas no exploradas

El uso cada vez más grande de la automatización genera interrogantes y preocupaciones éticas que podrían no haber sido consideradas antes del advenimiento de la tecnología misma. Por ejemplo, ¿quién es responsable si un vehículo autónomo participa en un accidente? ¿Cuánta información personal debiera darse a los proveedores del servicio de salud para facilitar su monitoreo automatizado? En muchos casos será necesario contar con más investigaciones antes de siquiera poder comenzar a abordar estos dilemas.

Cuestiones relacionadas con el consentimiento individual

Cuando los sistemas automatizados toman decisiones que afectan las decisiones de la gente borran la formación, el contexto y la expresión de su consentimiento (o la falta del mismo), tal como se describe en este pasaje: “…[E]l debilitamiento de la libre elección de nuestro consentimiento individual —ya sea a través de la distorsión abierta de la información, o incluso debido sólo a la ausencia de transparencia— pone en peligro las mismas bases de cómo expresamos nuestros derechos humanos y hacemos responsables a otros de su privación abierta (o incluso latente)”.Véase información adicional sobre el consentimiento informado en el recurso de Protección de datos.

Altos costos de capital

Las tecnologías de automatización a gran escala tienen costos de capital sumamente altos, lo cual es un riesgo en caso su uso no sea viable en el largo plazo, o que de algún otro modo no asegure retornos conmensurables o la recuperación de los costos. De ahí que los proyectos de automatización financiados con fondos públicos (por ejemplo, parte de la infraestructura de una “ciudad inteligente ”) necesitan contar con exhaustivos estudios de factibilidad que evalúen las necesidades y aseguren la viabilidad en el largo plazo. Por otro lado, el costo inicial podría también ser demasiado alto para las personas y las comunidades. Una planta automatizada de energía solar o un sistema de cosecha de agua de lluvia son una gran inversión para una comunidad. Pero el costo podría recuperarse, sin embargo, en el largo plazo, dependiendo de la tarifa de la energía de la red o del agua.

Inicio

Preguntas

Hágase estas preguntas si está intentando entender las implicaciones que la automatización habrá de tener en su entorno laboral, o si está considerando usar algunos aspectos de ella como parte de sus programas de DRG:

  1. ¿Es la automatización un método idóneo para el problema que está intentando resolver?
  2. ¿Cuáles son los indicadores o factores rectores que determinan si la automatización es una solución idónea y requerida para un problema o reto particular?
  3. ¿Qué riesgos están involucrados con respecto a la seguridad, el potencial para la discriminación, etc.? ¿Cómo minimizará estos riesgos? ¿Los beneficios que tiene el uso de la automatización o una tecnología automatizada compensan estos riesgos?
  4. ¿Quién trabajará con estas tecnologías y las supervisará? ¿Cuál es su capacitación y cuáles sus responsabilidades? ¿Quién es legalmente responsable en caso de accidentes?
  5. ¿Cuáles son los efectos que el uso de estas tecnologías tiene a largo plazo en el entorno o comunidad circundantes? ¿Cuáles sus efectos sobre las personas, empleos, salarios, bienestar social, etc.? ¿Qué medidas son necesarias para asegurar que el uso de dicha tecnologías no agravará o reforzará la desigualdad debido al sesgo de la automatización o de algún otro modo?
  6. ¿Cómo se asegurará de que los humanos supervisen toda decisión importante hecha acerca de personas utilizando procesos automatizados? (¿Cómo acatará el RGPD o cualquier otra regulación aplicable?)
  7. ¿Qué salvaguardas de privacidad y seguridad serán necesarias para aplicar dichas tecnologías en un contexto dado con respecto a, por ejemplo, la ciberseguridad, la protección o la privacidad personal, el proteger a los operarios de accidentes, etc.? ¿Cómo incorporará dichas salvaguardias?

Inicio

Estudios de caso

Vehículos agrícolas automatizados

Vehículos agrícolas automatizados

“Las predicciones del incremento de la población mundial en las décadas venideras exige nuevos procesos productivos que sean más eficientes, seguros y menos destructivos para el medio ambiente. Las industrias vienen trabajando para cumplir esta misión desarrollando el concepto de la fábrica inteligente. El mundo agrícola debiera seguir el liderazgo de la industria y diseñar enfoques con los cuales implementar el concepto de la granja inteligente. Uno de los elementos más vitales a los que se debe configurar para satisfacer los requisitos de las nuevas granjas inteligentes, son los vehículos terrestres no tripulados (UGV)”.

Sistemas de votación automatizados en Estonia

Sistemas de votación automatizados en Estonia

Desde 2005, Estonia permite el voto electrónico, en donde los ciudadanos pueden emitir su sufragio en línea. En cada elección sucesiva, los votantes eligieron cada vez más sufragar en línea para ahorrar tiempo y participar en las elecciones nacionales y locales con facilidad. Ellos usan una ID digital que ayuda a verificar su identificación y prevenir el fraude; los sufragios emitidos en línea se cruzan automáticamente con los padrones para asegurar así que no haya ninguna duplicación o fraude de votantes.

Minería automatizada en África del Sur

Minería automatizada en África del Sur

“Los crecientes costos de mano de obra y energía están presionando el desempeño financiero de la minas de oro de África del Sur, pero la solución podría yacer en la adopción de tecnologías digitales. Al implementar operadores automatizados se puede poner fuera de peligro a los trabajadores subterráneos, lo que habrá de ser un imperativo cada vez mayor si se quiere que el capital internacional siga invirtiendo en los mineros de oro. Este énfasis creciente en la seguridad de la fuerza laboral y de las minas está motivando el desarrollo del mercado minero automatizado. Las técnicas anteriores y más viejas de exploración y perforación comprometían la seguridad de la fuerza laboral de las minas. Estos ejemplos han obligado a los operarios a diseñar resoluciones y herramientas inteligentes para así confirmar la seguridad de los trabajadores”.

Procesamiento automatizado de casos civiles no impugnados para reducir los casos acumulados en los juzgados de Azerbaiyán, estudio de caso 14

Procesamiento automatizado de casos civiles no impugnados para reducir los casos acumulados en los juzgados de Azerbaiyán, estudio de caso 14

“En Azerbaiyán, el gobierno diseñó un nuevo enfoque con el cual abordar sus propios casos acumulados, uno que abordaba elementos tanto del lado de la oferta como de la demanda. Advirtiendo que gran parte de lo acumulado se debía a simples casos civiles, como las demandas por cuentas impagas, el gobierno se asoció con el sector privado en el uso de un sistema automatizado para optimizar el manejo de los casos no impugnados, dejando así libre el tiempo de los jueces para los casos más importantes”.

Reformando el reclutamiento del Servicio Civil en Indonesia con exámenes computarizados, estudio de caso 6

Reformando el reclutamiento del Servicio Civil en Indonesia con exámenes computarizados, estudio de caso 6

“En Indonesia, la Agencia del Servicio Civil (BKN) logró introducir un sistema de evaluación asistido por computadoras (CAT), para así alterar el viejo sistema previo de pruebas manuales, el cual creaba oportunidades desenfrenadas para la corrupción en el reclutamiento del servicio civil por parte de los funcionarios del ministerio. Ahora la base de datos de preguntas se encuentra bien controlada y los resultados se publican en tiempo real fuera del centro de evaluaciones. Desde su lanzamiento en 2013, el CAT se ha convertido en el estándar de facto para más de 62 ministerios y agencias”.

Automatización en tiempo real de la agricultura de la India

Automatización en tiempo real de la agricultura de la India

“La “automatización en tiempo real del sistema agrario de la india” usando microcontroladores AVR (Advanced Virtual RISC y GSM (Global System for Mobile), está concentrado en hacer que el proceso agrícola sea más fácil con la ayuda de la automatización. La configuración consta de un procesador que es un microcontrolador de 8 bits. GSM tiene una parte importante al controlar el riego en el campo. Se le usa para recibir y enviar al agricultor los datos recogidos por los sensores. GSM actúa como puente conector entre el microcontrolador AVR y el granjero. Nuestro estudio busca implementar la aplicación básica de la automatización del riego en el campo programando los componentes y construyendo el hardware necesario. En nuestro estudio se usaron distintos tipos de sensores como LM35, un sensor de humedad del aire, otro de la humedad del suelo y un sensor IR usado para encontrar la condición precisa del campo. Se usa GSM para informarle al agricultor el estado exacto del campo, de modo tal que [pueda] tomar las medidas necesarias. Se usan comandos de AT(Atención) para controlar funciones tales como la irrigación, el arado, el uso de las semillas y el efectuar otras actividades agrícolas”.

El voto electrónico llega a su fin en Kazajstán

Un estudio publicado en mayo de 2020 acerca del abandono del voto electrónico en Kazajstán, resalta algunos de los retos políticos que lo rodean. Kazajstán lo empleó entre 2004 y 2011, y fue considerado un ejemplo destacado. Véase “Kazakhstan: Voter registration Case Study (2006)” que fuera producido por la Ace Project Electoral Knowledge Network. Sin embargo, el país retornó a las cédulas de papel tradicionales debido a la falta de confianza que la ciudadanía y la sociedad civil tenían, en la capacidad del gobierno para asegurar la integridad de los procedimientos de votación electrónicos. Véase “Politicization of e-voting rejection: reflections from Kazakhstan,” de Maxat Kassen. Es importante señalar que Kazajstán no utilizó la votación biométrica, sino más bien máquinas de votación electrónicas que funcionaban mediante pantallas táctiles.

Inicio

Referencias

Recursos adicionales

Inicio

Categories

Big Data

¿Qué es el big data?

El “big data” o macrodatos son también datos, pero que involucran cantidades mucho más grandes de los que usualmente pueden manejarse con una computadora personal o una base de datos tradicional. No son inmensos sólo en volumen, sino que además crecen exponencialmente con el tiempo. Son tan grandes y complejos que ninguna de las herramientas tradicionales de manejo de datos puede almacenarlos o procesarlos eficientemente. Si tiene una cantidad de datos a la cual puede procesar en su computadora o la base de datos de su servidor acostumbrado sin que se cuelguen, entonces probablemente no está trabajando con “big data”.

¿Cómo funciona el big data?

El campo del big data fue evolucionado a medida que la capacidad de la tecnología para captar constantemente información se disparaba. Usualmente se los capta en tiempo real y sin que ningún ser humano los ingrese a una base de datos: en otras palabras, son captados “pasivamente” por dispositivos digitales.

La internet brinda oportunidades infinitas para recoger información, que va de la llamada metainformación o metadatos (ubicación geográfica, dirección de IP, hora, etc.) a información más detallada acerca del comportamiento de los usuarios. Ésta a menudo proviene de medios sociales en línea o del comportamiento de compras con tarjetas de crédito. Las cookies son una de las principales formas en que los navegadores de internet pueden recoger información acerca de los usuarios: son esencialmente pequeños pedazos de datos guardados en ellos, o pequeños retazos de memoria acerca de algo que ha hecho en una página. (Para mayor información sobre las cookies visite este recurso).

También se pueden armar conjuntos de datos a partir de la Internet de las cosas, lo que involucra sensores conectados a otros dispositivos y redes. Por ejemplo, los semáforos equipados con sensores pueden recoger información del tráfico que luego se analizará para optimizar su flujo. La recolección de datos a través de sensores es un elemento común de la infraestructura de una ciudad inteligente.

Trabajadoras del cuidado de salud en Indonesia. El uso del big data puede mejorar los sistemas de salud e informar sus políticas públicas. Crédito de la fotografía: cortesía de USAID EMAS.

El big data puede también constar de datos médicos o científicos como la información del ADN, u otra relacionada con brotes epidémicos. Esto podría ser útil para las organizaciones humanitarias y de desarrollo. Por ejemplo, para entender mejor la enfermedad y predecir futuros brotes, UNICEF combinó datos provenientes de varias fuentes durante el brote del ébola en África occidental entre 2014 y 2016, entre ellos cálculos demográficos, información sobre viajes aéreos, cálculos de movilidad regional a partir de registros de teléfonos celulares y los lugares etiquetados en las redes sociales, datos sobre la temperatura, y los datos de casos de los informes de la OMS.

El big data es creado y usado por diversos actores. En las sociedades movidas por datos, se alienta a la mayoría de los actores (el sector privado, los gobiernos y otras organizaciones) a que recojan y analicen datos para observar patrones y tendencias, midan el éxito o el fracaso, optimicen sus procesos en pos de la eficiencia, etc. No todos los actores crearán ellos mismos los conjuntos de datos; a menudo recogerán datos públicamente disponibles o incluso se los comprarán a compañías especializadas. Por ejemplo, en la industria de la publicidad, los brókers de información (data brokers) se especializan en recolectar y procesar información acerca de los usuarios de internet, la que luego venden a los publicistas. Otros actores crearán sus propios conjuntos de datos, como las compañías eléctricas, ferroviarias o de vehículos compartidos, y los gobiernos. Los datos están en todos lados y son numerosos los actores capaces de recogerlos inteligentemente y analizarlos.

Inicio

¿De qué modo es relevante el big data para el espacio cívico y la democracia?

En Tanzania, una plataforma de código abierto permite al gobierno y las instituciones financieras registrar todas las transacciones de tierra y crear un conjunto de datos completo. Crédito de la fotografía: Riaz Jahanpour para USAID / Digital Development Communications.

Los analistas están encontrando formas de convertir el big data en un valioso recurso para la planificación y toma de decisiones, desde predecir elecciones presidenciales hasta ayudar a los pequeños agricultores a enfrentar el cambio climático o predecir brotes epidémicos. El big data es capaz de darle a la sociedad civil poderosas percepciones y la capacidad para compartir información vital. Las herramientas del big data han sido aplicadas recientemente en el espacio cívico en varias formas interesantes, por ejemplo para:

  • monitorear elecciones y apoyar a gobiernos abiertos (comenzando en Kenia con Ushahidi en 2008)
  • monitorear epidemias como el ébola en Sierra Leona y otros países del África occidental
  • seguir las muertes relacionadas con conflictos en todo el mundo
  • entender el impacto de los sistemas de ID sobre los refugiados en Italia
  • medir y predecir el éxito y la distribución agrícolas en Latinoamérica
  • avanzar en nuevos descubrimientos en genética y el tratamiento del cáncer
  • usar los sistemas de información geográfica (aplicaciones de mapeo de SIG) en una serie de contextos, entre ellos la planificación del crecimiento urbano y la sostenibilidad del flujo de tráfico, tal como lo hiciera el Banco Mundial en diversos países de Asia del Sur y Oriental, África y el Caribe

El uso del big data que se recoge, procesa y analiza para mejorar los sistemas de salud o la sostenibilidad ambiental, por ejemplo, puede en definitiva beneficiar enormemente a las personas y a la sociedad. Varias preocupaciones y advertencias han surgido, sin embargo, con respecto a su uso. Priman las preocupaciones por la privacidad y la seguridad puesto que el big data a menudo se capta sin que seamos conscientes y se le usa en formas a las cuales podríamos no haber consentido, y a veces se le vende varias veces a través de una cadena de distintas compañías con las cuales jamás hemos interactuado, exponiendo así los datos a riesgos de seguridad tales como su filtración. Es crucial que tengamos en cuenta que los datos anónimos pueden también usarse para “reidentificar” a las personas representadas en el conjunto de datos —se alcanza un 85% de exactitud usando apenas el código postal, el género y la fecha de nacimiento—, lo que posiblemente los pone en riesgo (véase más adelante el examen de la “reidentificación”).

Hay también poderosos desequilibrios (divisorias) entre quiénes están representados en los datos y quiénes tienen el poder para usarlos. Los que logran extraer valor al big data son a menudo grandes compañías u otros actores que cuentan con los medios financieros y la capacidad para recoger (a veces comprar), analizar y entender los datos.

Esto quiere decir que las personas y grupos cuya información es colocada en los conjuntos de datos (compradores cuyos datos de su tarjeta de crédito son procesados, usuarios de internet cuyos clics quedan registrados en una página web) en general no se benefician con los datos que han dado. Por ejemplo, los que se refieren a qué artículos adquieren los compradores en una tienda, se usan muy probablemente para maximizar las utilidades antes que para ayudarles con sus decisiones de compra. La forma extractiva en que los datos son tomados de comportamientos individuales y usados para lucrar ha sido llamada “capitalismo de vigilancia“, y hay quienes piensan que está minando la autonomía personal y erosionando la democracia.

Debemos también considerar la calidad de los conjuntos de datos, puesto que quienes los usan podrían no saber dónde o cómo fueron recogidos, procesados o integrados con otros datos. Y cuando el big data se guarda y transmite, las preocupaciones de seguridad se multiplican debido al creciente número de máquinas, servicios y socios involucrados. Es asimismo importante tener en cuenta que los grandes conjuntos de datos no son en sí mismos inherentemente útiles, pero lo son conjuntamente con la capacidad para analizarlos y extraer información de ellos empleando avanzados algoritmos, modelos estadísticos, etc.

Por último pero no menos importante, es que hay cruciales consideraciones a tener en cuenta con respecto a la protección de los derechos fundamentales de aquellos cuya información aparece en los conjuntos de datos. La información sensible, que permite o podría permitir identificar personas, podría ser utilizada por otras partes o con otros fines fuera de los deseados, en detrimento de las personas involucradas. Esto se explora a continuación en la sección Riesgos, así como en los restantes manuales.

Protegiendo el anonimato de quienes figuran en el conjunto de datos

Todo aquel que haya investigado en las ciencias sociales o médicas debiera estar familiarizado con la idea de que cuando se recogen datos sobre sujetos humanos, es importante proteger su identidad para que así no enfrenten consecuencias negativas por haber estado involucrados con la investigación, como por ejemplo que se sepa que tienen una enfermedad particular, que votaron de tal o cual modo, que participan de un comportamiento estigmatizado, etc. (Véase el recurso Protección de los datos). Las formas tradicionales de proteger la identidad —retirando cierta información identificadora, o sólo reportando estadísticas agregadas— pueden y debieran también usarse cuando se manejan los grandes conjuntos de datos para así ayudar a proteger a quienes figuran en ellos. También pueden esconderse los datos de múltiples modos para proteger la privacidad: los métodos incluyen la encriptación (codificación), tokenización y el enmascaramiento de los datos. Talend identificó las fortalezas y las debilidades de las estrategias primarias con que esconder los datos usando estos métodos.

La posibilidad de que se dé la reidentificación es uno de los más grandes peligros involucrados en el uso de grandes conjuntos de datos: establecer la identidad real de las personas en el conjunto, incluso cuando su información personal ha sido escondida o retirada. Para dar una idea de cuán fácil sería identificar a las personas en un gran conjunto de datos, un estudio halló que usando apenas tres campos de información —el código postal, el género y la fecha de nacimiento— se podía identificar al 87% de los estadounidenses individualmente, y luego conectar su identidad a bases de datos públicamente disponibles que contienen historiales médicos. Con más puntos de datos, los investigadores demostraron la capacidad casi perfecta de identificar a las personas de un conjunto: con cuatro piezas aleatorias de los datos en los registros de las tarjetas de crédito se podría alcanzar una tasa de identificación de casi 90%, y los investigadores lograron identificar personas con 99.98% de precisión usando 15 puntos de datos.

Diez reglas simples para la investigación responsable de big data, tomadas de un paper del mismo nombre de Zook, Barocas, Boyd, Crawford, Keller, Gangadharan, et al, 2017

  1. Reconozca que los datos son personas y que pueden hacer daño. La mayoría de los datos representan a personas o las afectan. Simplemente partir del supuesto de que todos los datos son personas hasta que se demuestre lo contrario, pone en primer plano la dificultad que hay para disociar los datos de personas específicas.
  2. Reconozca que la privacidad es algo más que un valor binario. La privacidad podría ser más o menos importante para las personas a medida que pasan por distintos contextos y situaciones. Ver los datos en bruto de alguien podría tener distintas implicaciones para su privacidad que si vemos un solo registro. La privacidad podría ser importante para grupos de personas (digamos, por sector demográfico) así como para particulares.
  3. Cuide la reidentificación de sus datos. Sea consciente de que datos al parecer inocuos e inesperados, como el uso de la batería del celular, podrían usarse para reidentificarlos. Planee para asegurarse de que la forma en que comparte y reporta los datos reduce el riesgo de que las personas puedan ser identificadas.
  4. Practique un compartir datos que sea ético. Podría haber ocasiones en que los participantes en su conjunto de datos esperan que usted los comparta (por ejemplo, con otros investigadores médicos que buscan una cura), y otros en que confían en que no lo haga. Sea consciente de que otros datos identificadores de sus participantes podrían ser recogidos, vendidos o compartidos en otro lugar, y que combinarlos con los suyos podría identificarlos individualmente. Tenga claro cómo y cuándo compartirá los datos y sea responsable por la protección de la privacidad de las personas cuyos datos recoge.
  5. Tenga en cuenta las fortalezas y limitaciones de sus datos; grande no quiere decir mejor automáticamente. Entienda de dónde viene su gran conjunto de datos y cómo podría evolucionar en el tiempo. No sobreestime sus hallazgos y reconozca que podrían ser desordenados o tener significados múltiples.
  6. Debata las duras opciones éticas. Hable con sus colegas acerca de estas preocupaciones éticas. Siga el trabajo de organizaciones profesionales para mantenerse al día con estos motivos de preocupación.
  7. Diseñe un código de conducta para su organización, comunidad de investigadores o industria, e involucre a sus pares en su creación, para así asegurar la inclusión de perspectivas inesperadas o subrepresentadas.
  8. Diseñe sus datos y sistemas para que sean auditables. Esto fortalece la calidad de su investigación y servicios, así como para dar una advertencia temprana de los usos problemáticos dados a los datos.
  9. Aborde las consecuencias más amplias de los datos y las prácticas de análisis. Cuando planee su colección de big data, tenga en cuenta la igualdad social, el impacto medioambiental de su procesamiento y otros impactos que haya sobre toda la sociedad.
  10. Sepa cuándo romper estas normas. Teniendo al debate, el código de conducta y la auditabilidad como guías, considere que en el caso de una emergencia de salud pública u otro desastre podría ser posible que haya razones para dejas las normas de lado.

Consiguiendo el consentimiento informado

Quienes proporcionan sus datos podrían no ser conscientes en ese entonces de que éstos podrían ser vendidos posteriormente a brókeres de información, quienes a su vez podrían luego revenderlos.

Infortunadamente, los formularios de consentimiento de privacidad de los datos son en general difíciles de leer para la persona media, incluso después de la ampliación de las salvaguardas de la privacidad tras el Reglamento General de Protección de Datos (GRPD ) Los términos y condiciones de uso (documentos de ToS) son tan notoriamente difíciles de leer, que un cineasta incluso hizo un documental sobre el tema. Los investigadores que han estudiado las políticas de los términos de servicio y privacidad hallaron que los usuarios por lo general los aceptan sin leer porque son demasiado largos y complejos. De otro lado, los que necesitan acceder a una plataforma o servicio por razones personales (por ejemplo, para mantenerse en contacto con un pariente) o para su subsistencia (para entregar sus productos a los consumidores) podrían no poder simplemente rechazar los ToS cuando no cuentan con una alternativa viable o inmediata.

Se viene efectuando un trabajo importante para intentar proteger a los usuarios de las plataformas y servicios de estos tipos de situaciones abusivas de compartir datos. Por ejemplo, el Usable Privacy and Security Laboratory de Carnegie Mellon (CUPS) ha diseñado mejores prácticas para informar a los usuarios acerca de cómo podrían usarse sus datos. Esto ha tomado la forma de
etiquetas de nutrición” de privacidad de los datos similares a las etiquetas de nutrición alimenticia especificadas por la FDA, y que tienen como base las evidencias.

En Chipata, Zambia, una vecina extrae agua de un pozo. El big data ofrece valiosa información para el diseño de soluciones al cambio climático. Crédito de la fotografía: Sandra Coburn.

Inicio

Oportunidades

El big data puede tener impactos positivos cuando se usa para promover la democracia, los derechos humanos y los temas de gobernanza. Lea a continuación cómo aprender a pensar de modo más eficaz y seguro acerca del big data en su trabajo.

Mayor conocimiento

Los grandes conjuntos de datos presentan parte de la información más rica y exhaustiva con que se ha contado en toda la historia humana. Los investigadores que los usan tienen acceso a información de una población enorme. Esto puede ser mucho más útil y conveniente que los datos autorreportados o los que fueron recogidos por estudios observacionales de difícil logística. Un trade-off importante se da entre la riqueza del conocimiento ganado mediante datos autorreportados o recolectados con sumo cuidado, contra la capacidad para generalizar los conocimientos obtenidos a partir del big data. Este último, al que se recoge de las actividades en redes sociales o por sensores, podría también permitir la medición en tiempo real de una actividad a gran escala. Lo que se obtiene del big data es sumamente importante en el campo de la logística. Por ejemplo, el Servicio Postal de los Estados Unidos recoge datos de todas sus entregas de paquetes usando GPS y vastas redes de sensores y otros métodos de seguimiento, y luego los procesa con algoritmos especializados. Esto les permite optimizar sus entregas para la sostenibilidad medioambiental.

Mayor acceso a los datos

Hacer que los grandes conjuntos de datos sean públicamente disponibles podría comenzar a cerrar las brechas en el acceso a los datos. Fuera de algunos conjuntos de datos públicos, el big data usualmente termina siendo propiedad de corporaciones, universidades y otras grandes organizaciones. Aunque los datos producidos son acerca de personas individuales y su comunidad, dichas personas y comunidades podrían no tener el dinero o la capacidad técnica para acceder a ellos y hacer un uso productivo de los mismos. Esto genera el riesgo de que las brechas digitales empeoren.

Los datos públicamente disponibles han ayudado a las comunidades, entre otras cosas, a entender la corrupción gubernamental, asuntos municipales, abusos de los derechos humanos y crisis de salud, y actuar en conformidad a ello. Pero una vez más resulta particularmente importante asegurar, cuando los datos se hagan públicos, una sólida privacidad para aquellos cuyos datos figuran en el conjunto de datos. El trabajo del proyecto Our Data Bodies brinda una guía adicional sobre cómo tratar a las comunidades cuyos datos figuran en estos conjuntos. Los materiales de sus talleres podrían apoyar la comprensión y participación de la comunidad en la toma de decisiones éticas acerca de la recolección y procesamiento de datos, y de cómo monitorear y auditar las prácticas seguidas con ellos.

Inicio

Riesgos

El uso de tecnologías emergentes para recoger datos también puede crear riesgos en los programas de la sociedad civil. Lea a continuación cómo discernir los posibles peligros asociados con la recolección del big data y su uso en el trabajo de DRG, así como de qué modos mitigar las consecuencias involuntarias y voluntarias.

Vigilancia

Dado el potencial para la reidentificación, así como la naturaleza y los objetivos de algunos usos dados al big data, corremos el riesgo de que las personas incluidas en un conjunto de datos sean sometidas a vigilancia por los gobiernos, los cuerpos policiales o las corporaciones. Esto podría poner en peligro los derechos fundamentales y la seguridad de quienes figuran en el conjunto de datos.

El gobierno chino es criticado constantemente por la vigilancia invasiva de sus ciudadanos mediante la recolección y procesamiento del big data. Más específicamente se le ha criticado por su sistema de ranking social de los ciudadanos sobre la base de sus redes sociales, datos de compras y educativos, así como por la recolección recolección revelaciones aque Edward Snowden hiciera acerca de la recolección y uso de datos de redes sociales y otros más por parte de la Agencia de Seguridad Nacional de los EE.UU., fue una de las primeras advertencias públicas acerca del potencial que el big data tiene para la vigilancia. También son motivo de preocupación las sociedades involucradas en el desarrollo del sistema de ID biométrico de la India, una tecnología cuyos productores están ansiosos por venderla a otros países. En los Estados Unidos, los defensores de la privacidad han manifestado su preocupación por las compañías y gobiernos que adquieren datos a escala acerca de los estudiantes usando los dispositivos que sus centros educativos les dan, preocupación esta que también debiera ser planteada en cualquier contexto internacional en que se dan laptops o celulares a los alumnos.

Debemos enfatizar que la preocupación por la vigilancia no queda limitada a las instituciones que originalmente recogieron los datos, trátese de gobiernos o de corporaciones. Es posible, cuando los datos son vendidos o combinados con otros conjuntos de datos, que otros actores, desde estafadores por correo electrónico a parejas abusivas, accedan a los datos y sigan, exploten o dañen de algún otro modo a las personas que figuran en el conjunto de datos.

Preocupación por la seguridad de los datos

El big data presenta retos significativos para la seguridad porque se le recoge, limpia y combina a través de largos y complejos pipelines de software y almacenaje. Estos retos se multiplican cada vez que los datos son compartidos entre muchas organizaciones. Todo flujo de datos que llega en tiempo real (por ejemplo, información acerca de personas que ingresan a un hospital) necesitará ser protegido específicamente de su manipulación, alteración o vigilancia. Es importante asegurarse de que se destinen suficientes recursos a la seguridad, puesto que los datos pueden constituir un riesgo significativo para la privacidad y la seguridad de quienes están incluidos en estos conjuntos, y son sumamente valiosos para los delincuentes.

Las herramientas de seguridad existentes para páginas web no bastan para cubrir todo el pipeline del big data. Se necesitan grandes inversiones en personal e infraestructura para brindar una cobertura de seguridad apropiada y responder a las filtraciones de datos. E infortunadamente en la industria faltan los especialistas en big data, en particular el personal de seguridad familiarizado con los retos singulares que éste presenta. Los sensores de la Internet de las cosas constituyen un riesgo particular cuando forman parte de un pipeline de recolección de datos; estos dispositivos son notorios por contar con seguridad deficiente. Por ejemplo, un actor malicioso podría fácilmente introducir sensores falsos en la red, o rellenar el pipeline de recolección con datos basura para así hacer que su recolección de datos sea inútil.

Expectativas exageradas de precisión y objetividad

Las compañías de big data y sus promotores a menudo afirman que éste puede ser más objetivo o preciso que los datos reunidos de modo tradicional, supuestamente porque el juicio humano no interviene y porque la escala a la cual se le reúne es más rica. Este cuadro resta importancia al hecho que los algoritmos y el código informático también aplica el juicio humano a los datos, lo que incluye sesgos y datos que podrían ser excluidos accidentalmente. Además, la interpretación humana es siempre necesaria para encontrarle el sentido a los patrones del big data, de modo tal que las pretensiones de objetividad debieran, una vez más, tomarse con un saludable escepticismo.

Para evitar caer en la trampa de asumir que el big data es “mejor”, es importante que hagamos preguntas acerca de los métodos de recolección de datos, los algoritmos involucrados en el procesamiento y los supuestos o inferencias de los recolectores/programadores de los datos y sus análisis. Por ejemplo, los datos acerca de la cercanía de dos teléfonos celulares le dicen que dos personas estuvieron cerca la una de la otra, pero sólo la interpretación humana podría decirle por qué razón lo estaban. La forma en que un analista interpreta dicha cercanía podría diferir de lo que las personas que tienen los celulares podrían decirle. Por ejemplo, este es un gran reto cuando usamos los teléfonos para “rastrear contactos” en epidemiología. Durante la crisis sanitaria del COVID-19, fueron muchos los países que se apresuraron en construir apps para celulares que rastrearan los contactos. Sus fines y funcionamiento precisos varían ampliamente (al igual que su efectividad), pero vale la pena indicar que las principales empresas tecnológicas prefirieron referirse a ellas como apps para “notificar el riesgo de exposición” antes que como de rastreo de contactos: esto se debe a que sólo pueden decir si se ha estado cerca de alguien con coronavirus, no si se lo ha contraído o no.

Malinterpretación

Hay dificultades a la hora de interpretar y extraer conclusiones, al igual que sucede con todos los datos. Dado que el big data a menudo es captado y analizado en tiempo real, podría ser particularmente débil al proporcionar el contexto histórico de los patrones actuales que está resaltando. Todo aquel que analice big data debiera asimismo considerar cuál o cuáles fueron sus fuentes, si los datos fueron combinados con otros conjuntos de datos, y cómo se les limpió. La limpieza se refiere al proceso de corregir o retirar los datos imprecisos o que no son pertinentes. Esto es de particular importancia en el caso de los datos de las redes sociales, que pueden tener un montón de “ruido” (información extra), y que por ende casi siempre son limpiados.

Inicio

Preguntas

Hágase estas preguntas si está intentando entender las implicaciones que el big data tiene en su entorno laboral, o si está considerando algunos de sus aspectos como parte de su programación de DRG:

  1. ¿Recoger big data es el enfoque correcto para la pregunta que está intentando responder? ¿Cómo podría su pregunta responderse de distinto modo usando entrevistas, estudios históricos o concentrándose más bien en la significación estadística?
  2. ¿Ya cuenta con estos datos o son éstos accesibles públicamente? ¿Es realmente necesario que los adquiera por su cuenta?
  3. ¿Cuál es su plan para hacer que resulte imposible identificar a las personas mediante sus datos en el conjunto de datos? Si éstos provienen de otra fuente, ¿qué tipo de desanonimización ha efectuado ya?
  4. ¿Cómo podría alguien hacer más para que las personas sean más identificables cuando usted publique sus datos y hallazgos? ¿Qué pasos puede tomar para reducir el riesgo de que sean identificados?
  5. ¿Cuál es su plan para conseguir el consentimiento de aquellos cuyos datos está recogiendo? ¿Cómo hará para asegurarse de que su documento de consentimiento les sea fácil de entender?
  6. Si sus datos provienen de otra organización, ¿cómo buscó ésta el consentimiento? ¿Dicho consentimiento incluía el que otras organizaciones pudieran usar los datos?
  7. Si está recibiendo los datos de alguna otra organización, ¿cuál fue su fuente? ¿Quién los recogió y qué estaban intentando lograr?
  8. ¿Qué sabe de la calidad de estos datos? ¿Alguien los está inspeccionando en busca de errores? De ser así, ¿cómo? ¿Las herramientas de recolección fallaron en algún punto, o sospecha acaso que podría haber algunas imprecisiones o errores?
  9. ¿Estos datos han sido integrados con otros conjuntos de datos? Si se usaron datos para llenar vacíos, ¿cómo se logró esto?
  10. ¿Cuál es el plan de seguridad de principio a fin para los datos que está captando o usando? ¿Está involucrado algún tercero cuyas propuestas de seguridad deba entender?

Inicio

Estudios de caso

Habitante de aldea en Tanzania. La analítica del big data puede precisar estrategias que funcionan con pequeños agricultores. Crédito de la fotografía: Riaz Jahanpour para USAID / Digital Development Communications.
Big Data para la agricultura climáticamente inteligente

Big Data para la agricultura climáticamente inteligente

“Los científicos del Centro Internacional de Agricultura Tropical (CIAT) han aplicado herramientas de big data para precisar estrategias que funcionen con pequeños agricultores en un clima cambiante…. Los investigadores aplicaron analítica del big data a los registros agrícolas y del clima en Colombia, revelando así de qué modo su variación impacta en el rendimiento del arroz. Estos análisis identifican las variedades de arroz más productivas y el momento de la siembra para lugares específicos y predicciones estacionales. Las recomendaciones podrían potencialmente elevar el rendimiento de 1 a 3 toneladas por hectárea. Las herramientas funcionan dondequiera que se cuente con los datos, y actualmente vienen siendo ampliadas en Colombia, Argentina, Nicaragua, Perú y Uruguay”.

Dispositivos entregados por centros educativos y privacidad de los alumnos

Dispositivos entregados por centros educativos y privacidad de los alumnos, en particular las Mejores Prácticas para la sección de compañías de tecnología educativa.

“Los alumnos vienen usando tecnología en el aula a un ritmo sin precedentes…. Las laptops de los alumnos y los servicios educativos a menudo están disponibles a precios fuertemente reducidos, y a veces son incluso gratuitas. Vienen, sin embargo, con costos reales y preguntas éticas no resueltas. A lo largo de la investigación efectuada por EFF durante los últimos dos años, hallaron que los servicios tecnológicos educativos a menudo recogen mucha más información sobre los niños de lo necesario, y que la guardan por tiempo indefinido. Esta información con implicaciones para la privacidad va más allá de la información personalmente identificable (PII), como el nombre y la fecha de nacimiento, y puede incluir el historial y los términos de búsqueda, los datos de ubicación, las listas de contacto e información conductual… Todo esto a menudo sucede sin el conocimiento o el consentimiento de los alumnos y su familia”.

El big data y las ciudades florecientes: innovaciones en la analítica para construir espacios urbanos sostenibles, resilientes, equitativos y vivibles.

El big data y las ciudades florecientes: innovaciones en la analítica para construir espacios urbanos sostenibles, resilientes, equitativos y vivibles.

Este paper incluye estudios de caso de big data usado para seguir cambios en la urbanización, la congestión del tráfico y el crimen en las ciudades. “[L]a aplicación innovadora de tecnologías geoespaciales y de sensores, así como la penetración de la tecnología telefónica móvil están proporcionando una recolección de datos sin precedentes. Estos datos pueden ser analizados para muchos fines, entre ellos hacer un seguimiento de la población y la movilidad, las inversiones del sector privado y la transparencia de los gobiernos federal y local”.

Combatiendo el ébola en Sierra Leona: compartir datos para mejorar la respuesta a la crisis.

Combatiendo el ébola en Sierra Leona: compartir datos para mejorar la respuesta a la crisis.

“Los datos y la información tienen un papel importante que desempeñar en la lucha no sólo contra el ébola, sino más en general contra una variedad de crisis natural u obra del hombre. Sin embargo, para maximizar dicho potencial es esencial fomentar el lado de la oferta de las iniciativas de datos abiertos, esto es, asegurar la disponibilidad de suficiente información de alta calidad. Esto podría resultar particularmente difícil cuando no hay una política clara que empuje a los actores a cumplir y que fije estándares claros de la calidad y el formato de los datos. Las etapas iniciales de los esfuerzos por tener datos abiertos pueden resultar caóticas y a veces redundantes, en particular durante una crisis. Aunque difícil en tiempos de crisis, mejorar la coordinación entre múltiples actores que trabajan hacia metas similares podría ayudar a reducir la redundancia y conducir a esfuerzos que son más grandes que la suma de sus partes.

Rastreando las muertes relacionadas con conflictos: un panorama preliminar de los sistemas de monitoreo.

Rastreando las muertes relacionadas con conflictos: un panorama preliminar de los sistemas de monitoreo.

“En el marco de la Agenda para el Desarrollo Sostenible 2030 de las Naciones Unidas, los Estados se han comprometido a hacer el seguimiento del número de personas muertas en conflictos armados y a desagregar los datos por sexo, edad y causa, siguiendo el Indicador 16 de los Objetivos de Desarrollo Sostenible (ODS). No hay, sin embargo, ningún consenso internacional en las definiciones, métodos o estándares a usar en la generación de los datos. Es más, los sistemas de monitoreo manejados por las organizaciones internacionales y la sociedad civil difieren en lo que respecta a su cobertura temática, concentración geográfica y nivel de desagregación”.

Equilibrando la utilidad de los datos con la confidencialidad en el censo de los EE.UU.

Balancing data utility and confidentiality in the US census (Equilibrando la utilidad de los datos con la confidencialidad en el censo de los EE.UU.)

Describe cómo el censo está usando una privacidad diferencial para proteger los datos de los encuestados. “A medida que la Oficina del Censo se prepara para enumerar la población de los Estados Unidos en 2020, su dirección ha anunciado que efectuará cambios significativos en los cuadros estadísticos que la oficina piensa publicar. Dados los adelantos en la ciencia de la computación y la amplia disponibilidad de datos comerciales, las técnicas que la oficina ha empleado históricamente para proteger la confidencialidad de puntos de datos individuales ya no pueden resistir a los nuevos enfoques de reconstrucción y reidentificación de datos confidenciales. … [L]as investigaciones llevadas a cabo por la Oficina del Censo han mostrado que ahora es posible reconstruir información y reidentificar a un número considerable de personas a partir de cuadros estadísticos públicamente disponibles. Las viejas protecciones de la privacidad de los datos simplemente ya no funcionan. Por ende, la dirección de la Oficina del Censo ha aceptado que no puede conservar su actual método y esperará a 2030 para efectuar cambios; ha decidido invertir en un nuevo enfoque para garantizar la privacidad, que transformará significativamente la forma en que la oficina produce estadísticas”.

Inicio

Referencias

A continuación aparecen las referencias citadas en este recurso.

Recursos adicionales

Inicio

Categories

Blockchain

¿Qué es Blockchain?

Un blockchain o cadena de bloques, es una base de datos distribuida que existe en múltiples computadoras al mismo tiempo, con un detallado e inalterable historial de transacciones que apalancan la criptografía. Las tecnologías basadas en blockchain, tal vez más conocidas por su uso por “criptomonedas ” como Bitcoin, son también aludidas como una “tecnología de contabilidad distribuida (DLT)”.

¿Cómo funciona blockchain?

A diferencia de los registros escritos a mano, como esta distribución de mosquiteros en Tanzania, los datos agregados a un blockchain no pueden ser borrados o manipulados. Crédito de la fotografía: USAID.
A diferencia de los registros escritos a mano, como esta distribución de mosquiteros en Tanzania, los datos agregados a un blockchain no pueden ser borrados o manipulados. Crédito de la fotografía: USAID.

Blockchain es una base de datos en constante crecimiento, a medida que se le agregan nuevos conjuntos de grabaciones o ‘bloques’. Cada bloque contiene una marca de fecha y un enlace con el bloque anterior, de modo tal que forman una cadena. La cadena de bloques o blockchain resultante no es manejada por ningún cuerpo particular; más bien todos en la red tienen acceso a la base de datos toda. Los viejos bloques se conservan por siempre y otros nuevos son añadidos de modo irreversible al ledger o libro mayor, lo que hace que sea imposible borrar o manipular los registros de la base de datos.

Blockchain puede proporcionar soluciones a problemas sumamente específicos. El caso de uso más claro es el de los datos públicos compartidos en donde todos los añadidos deben ser claramente rastreados, y en donde ningún dato tendrá jamás que ser ocultado. Distintos usos requieren de diferentes inputs (capacidad de procesamiento, ancho de banda, administración centralizada), lo que se debe considerar cuidadosamente en cada contexto. Blockchain es también un concepto sobrevalorado, aplicado a una serie de distintos problemas para los cuales podría no ser la tecnología más apropiada, y en algunos casos ni siquiera ser una tecnología responsable que emplear.

Hay dos conceptos centrales en la tecnología blockchain: el aspecto del historial de transacciones y el distribuido. Técnicamente se encuentran estrechamente entrelazados, pero vale también la pena considerarlos y entenderlos independientemente.

Historial de transacciones ‘inmutable’

Imagine apilar bloques. Con un esfuerzo cada vez mayor se pueden añadir más bloques a la torre, pero una vez que están en la pila no se les puede retirar sin alterar —y en algunos casos destruir— de modo sumamente fundamental y visible a la torre. Un blockchain es algo muy parecido en que cada “bloque” contiene cierta cantidad de información, a la cual se puede usar para, por ejemplo, seguir las transacciones monetarias y almacenar datos reales. (Para aprender de un ejemplo de la vida real puede explorar el blockchain de bitcoin, que en sí mismo ya ha sido usado para ttransmitir mensajes y más.)

Este es un aspecto central de la tecnología blockchain al que generalmente se denomina inmutabilidad, lo que quiere decir que una vez almacenados, los datos no pueden ser alterados. Blockchain es inmutable en un sentido práctico, pero un acuerdo del 100% entre los usuarios podría permitir cambios, aunque hacerlos en realidad sería increíblemente tedioso.

En su forma más simple, blockchain es una valiosa herramienta digital que replica en línea el valor de un libro mayor en papel y tinta. Aunque esto podría ser útil para seguir a diversas transacciones o eventos secuenciales (la propiedad de un ítem /parcela de tierra / cadena de suministros específico), y aunque podría en teoría aplicarse a conceptos tales como la votación o la propiedad comunitaria y el manejo de recursos, debe hacerse una importante salvedad. Los errores jamás pueden ser realmente deshechos, y los cambios a los datos seguidos en un blockchain jamás pueden ser actualizados.

Muchas de las posibles aplicaciones de blockchain dependen de que uno de los datos seguidos es la identidad de una persona u organización legal. Si dicha entidad cambia, su identidad previa quedará por siempre inmutablemente rastreada y ligada a la nueva identidad. Además de ser dañino para una persona que huye de la persecución o que ha cambiado legalmente su identidad, en el caso, por ejemplo, de las personas transgénero esta sería también una violación del derecho a la privacidad establecido por el derecho internacional de los derechos humanos.

Distribuido y descentralizado

El segundo postulado central de la tecnología de blockchain es la ausencia de una autoridad central o un oráculo de “verdad”. Dada la naturaleza de los registros de transacción inalterables, cada parte interesada que contribuye a un blockchain rastrea y verifica los datos que contiene. Al ampliarse la escala, esto brinda una poderosa protección contra los problemas comunes no sólo a las ONG sino también al sector privado y a otros campos que dependen de un servicio para mantener un almacén de datos consistente. Esta característica puede proteger a un sistema central de colapsar o de ser censurado, corrompido, perdido o hackeado, pero con el riesgo de colocar obstáculos significativos para el desarrollo del protocolo y los requerimientos de quienes interactúan con los datos.

Una idea equivocada común es que blockchain es completamente abierto y transparente. Los blockchains pueden ser privados y tener diversas formas de permiso aplicados a ellos. En tales casos algunos usuarios tienen más control sobre los datos y las transacciones que otros. La configuración de la privacidad para blockchain puede permitir un manejo más fácil, pero también replica algunos de los retos específicos que éste en teoría está resolviendo.

Blockchain sin y con permisos

Los blockchains no permitidos son públicos, de modo tal que cualquiera puede interactuar con y participar en ellos. Los que sí son permitidos son, de otro lado, redes cerradas, a las cuales sólo actores específicos pueden acceder y contribuir. Los primeros son, por lo tanto, más transparentes y descentralizados, en tanto que los segundos están regidos por una entidad o grupo de entidades que pueden personalizar la plataforma, eligiendo quién puede participar, el nivel de transparencia, y si usar o no activos digitales. Otra diferencia clave es que los blockchains públicos tienden a ser anónimos, en tanto que los privados por naturaleza no pueden serlo. Por dicha razón, los permitidos son elegidos en muchos casos de uso de derechos humanos, utilizando la identidad para que los usuarios tengan que rendir cuentas.

Inicio

¿De qué modo es blockchain relevante en el espacio cívico y para la democracia?

La tecnología de blockchain cuenta con el potencial para proporcionar beneficios sustanciales en el sector del desarrollo, así como específicamente a los programas de derechos humanos. Al brindar una fuente de datos descentralizada y verificable, esta tecnología puede ser una forma más transparente y eficiente de manejo de información y datos para una mejor gobernanza, rendición de cuentas, transparencia financiera y hasta de identidades digitales. Si bien blockchain puede resultar eficaz cuando se la emplea estratégicamente en problemas específicos, los practicantes que decidan usarla deben hacerlo meticulosamente. La decisión de usar DLT debiera basarse en un análisis e investigación detallados de tecnologías comparables que incluyan opciones que no sean DLT. A medida que los blockchains sean usados más y más para la gobernanza y en el espacio cívico, las aplicaciones irresponsables amenazarán los derechos humanos, en particular la seguridad de los datos y el derecho a la privacidad.

Al proporcionar una fuente descentralizada y verificable de datos, la tecnología de blockchain posibilita una forma más transparente y eficiente de manejo de la información y los datos. Los practicantes debieran entender que ella puede aplicarse a retos humanitarios, pero que no es en sí misma una innovación humanitaria independiente.

BLOCKCHAIN PARA EL SECTOR HUMANITARI0 –OPORTUNIDADES FUTURAS

Los blockchains mismos se prestan a algunas herramientas interesantes que usan las compañías, los gobiernos y la sociedad civil. Algunos ejemplos de cómo es que esta tecnología puede usarse en el espacio cívico son: títulos de tierras (necesarios para la movilidad económica y prevenir la corrupción), ID digital (especialmente en el caso de personas desplazadas), historiales de salud, transferencias de efectivo basadas en vales, cadenas de suministro, publicaciones y aplicaciones resistentes a la censura, moneda digital , el manejo de datos descentralizado, el registro de los votos, crowdfunding y contratos inteligentes. Algunos de estos ejemplos se examinan a continuación. En esta página se pueden encontrar ejemplos específicos del uso de la tecnología del blockchain entre los estudios de caso.

Un proyecto financiado por USAID usó una app y software móviles para rastrear la venta y transferencia de los derechos de la tierra en Tanzania. La tecnología de blockchain también puede usarse para registrar los títulos de tierra. Crédito de la fotografía: Riaz Jahanpour para USAID / Digital Development Communications.
Un proyecto financiado por USAID usó una app y software móviles para rastrear la venta y transferencia de los derechos de la tierra en Tanzania. La tecnología de blockchain también puede usarse para registrar los títulos de tierra. Crédito de la fotografía: Riaz Jahanpour para USAID / Digital Development Communications.

Los postulados centrales de blockchain —un histórico de transacciones inmutable y su naturaleza distribuida y descentralizada— se prestan para algunas interesantes herramientas que vienen siendo empleadas por las compañías, los gobiernos y la sociedad civil. Los riesgos y oportunidades que éstas presentan serán explorados con mayor detenimiento más adelante en las secciones relevantes, y se darán ejemplos específicos en la sección de Estudios de caso ,pero a un nivel alto, muchos actores están buscando aprovechar los siguientes modos:

Contratos inteligentes

Los contratos inteligentes son acuerdos que proporcionan pagos automáticos al completarse una tarea o evento específicos. Por ejemplo, en el espacio cívico, estos contratos podrían usarse para ejecutar acuerdos entre ONG y gobiernos locales para acelerar las transacciones, rebajar los costos y reducir el mutuo recelo. Sin embargo, dado que estos contratos están “definidos” en código, cualquier defecto del software puede interferir con su propósito, o convertirse en un posible vacío legal en el cual se podría aprovechar el contrato. Un caso de estos sucedió cuando un atacante aprovechó un defecto del software en una empresa basada en contratos inteligentes llamada The DAO por aproximadamente $50M.

Democracia líquida

La democracia líquida es una forma de democracia en la cual en lugar de simplemente votar para elegir líderes, los ciudadanos también toman parte en una toma de decisiones colectiva. Aunque la democracia directa (cada persona tiene voz y voto en cada decisión que un país toma) no es factible, blockchain podría reducir las barreras a la democracia líquida, un sistema que podría poner más poder en manos del pueblo. Blockchain permitiría a los ciudadanos registrar sus opiniones sobre temas específicos, o delegar el voto a expertos en la materia.

Transparencia gubernamental

Blockchain puede usarse para enfrentar la corrupción gubernamental y el desperdicio en áreas comunes como las adquisiciones públicas. Los gobiernos pueden usarlo para publicitar los pasos del proceso de compra y construir la confianza de la ciudadanía, pues ésta sabe que las transacciones registradas no podrían haber sido alteradas. La herramienta podría asimismo usarse para automatizar el cálculo y cobro de los impuestos.

Innovadores sistemas monetarios y de pago

Muchas nuevas criptomonedas vienen considerando formas de aprovechar blockchain en transacciones que no tengan la volatilidad de bitcoin, así como con otras propiedades como la rapidez, el costo, la estabilidad y el anonimato. Las criptomonedas ocasionalmente también vienen siendo combinadas con los contratos inteligentes para así establecer una propiedad compartida mediante el financiamiento de los proyectos.

Potencial para captar fondos

El subconjunto de moneda digital de blockchain viene usándose además para establecer una propiedad compartida (tal como las acciones de las grandes compañías) de los proyectos.

Potencial para la integridad electoral

La transparencia e inmutabilidad de blockchain podrían usarse para incrementar la confianza del público en las elecciones, integrando las máquinas de votación electrónica con blockchain. Al seguirse públicamente el recuento de los votos surgen, sin embargo, preocupaciones con la privacidad. Además este sistema depende de máquinas de votación electrónica, lo cual plantea cierta preocupación con la seguridad puesto que las computadoras pueden ser hackeadas, y en varias sociedades en donde se ha sugerido su uso se las ha recibido con desconfianza. La votación en línea a través de blockchain enfrenta una desconfianza similar, pero integrar esta tecnología en la votación haría que las auditorías sean más fáciles y más confiables. Esta condición rastreable sería también una característica útil para la transmisión transparente de los resultados de los centros de votación a los de conteo.

Tecnología resistente a la censura

La naturaleza descentralizada e inmutable de blockchain ofrece claros beneficios para la protección de las opiniones, pero no está libre de riesgos significativos. Han habido usos de blockchain de alta visibilidad para publicar opiniones censuradas en China, Turquía, y Cataluña. Article 19 ha preparado un informe a profundidad específicamente acerca de la interacción entre la libertad de expresión y las tecnologías de blockchain, que presenta una imagen equilibrada de los beneficios y riesgos potenciales, y una guía para las partes interesadas que estén considerando participar en esta faceta.

Procesamiento y almacenaje descentralizados

Los micropagos efectuados a través de un blockchain pueden usarse para formalizar y registrar actos. Esto podría ser útil cuando se efectúan actividades con múltiples partes interesadas en donde la confianza, la transparencia y un registro permanente son valiosos, por ejemplo en subastas automatizadas (para prevenir la corrupción), votaciones (para construir la confianza de los votantes), la firma de contratos (para conservar un registro de la propiedad y obligaciones que sobreviva a las crisis que destruyen el papel o hasta a los sistemas digitales) e incluso con fines de copyright y para prevenir la manipulación de los hechos.

Ethereum es una criptomoneda concentrada en usar el sistema de blockchain para ayudar a manejar el procesamiento y almacenaje informáticos descentralizados a través de contratos inteligentes y pagos digitales. Ella alienta el desarrollo de “apps distribuidas” que están ligadas a las transacciones en su blockchain. Entre los ejemplos de estas apps tenemos una herramienta similar a X, y apps que pagan por la creación/el compartir contenido. Para mayor información véanse los estudios de caso en el manual de las criptomonedas.

La inmensa mayoría de estas aplicaciones asume alguna forma de micropago como parte de la transacción. Sin embargo, este requisito tiene ramificaciones para el acceso igualitario, puesto que la accesibilidad de internet, el capital y el acceso a los sistemas de pago en línea son todas barreras al uso. Es más, con los fondos involucrados, el consentimiento informado es aún más esencial y difícil de asegurar.

Inicio

Oportunidades

Blockchain puede tener impactos positivos cuando se usa para promover la democracia, los derechos humanos y los temas de gobernanza. Lea a continuación para aprender cómo reflexionar de modo más eficaz y seguro acerca de blockchain en su trabajo.

Prueba de integridad digital

Los datos guardados o rastreados usando tecnologías de blockchain tienen una cadena de verificaciones clara, secuencial e inalterable. Una vez que se le agregan datos al blockchain hay una prueba matemática en desarrollo de que no ha sido alterado. Esto no da seguridad alguna de que los datos originales sean válidos o verdaderos, y quiere decir que todo dato agregado no puede ser eliminado o cambiado, sólo añadírsele otros. Sin embargo, en la sociedad civil este beneficio ha sido aplicado a conceptos tales como la creación de registros para los títulos/propiedad de la tierra; para mejorar la seguridad de la votación asegurando que una persona calce con un voto incambiable; y previniendo el fraude y la corrupción al mismo tiempo que mejora la transparencia en la filantropía internacional. Se le ha empleado para mantener el registro de identidades digitales para ayudar a la gente a retener la propiedad de su identidad y documentos, y —en contextos humanitarios— para hacer que las transferencias de dinero en efectivo basadas en vales sean más eficientes. Como habilitador de monedas digitales, blockchain en ciertas circunstancias facilita el financiamiento de la sociedad civil a través de las fronteras. Blockchain podría usarse no sólo para preservar documentos de identificación, sino también títulos y grados.

Una función como esta puede proporcionar una solución a la invisibilidad legal que usualmente soportan refugiados e inmigrantes. Por ejemplo, los refugiados rohinyá en Bangladesh a menudo están en riesgo de ser discriminados y explotados porque carecen de patria. Los proponentes de blockchain sostienen que su sistema distribuido puede otorgar a las personas una “identidad autosoberana,” un concepto mediante el cual la propiedad de los documentos de identificación es retirada de las autoridades y puesta en manos de particulares. Esto les permite usar sus documentos de identidad ante varias autoridades, en tanto que el acceso de estas últimas requiere de un grado de consentimiento. Un modelo de identidad autosoberano podría ser una solución a las regulaciones planteadas por el RGPD y de leyes similares que respaldan el derecho a la privacidad.

Sin embargo, si los arquitectos de blockchain no obtienen los permisos de transacción y las variables estatales públicas/privadas, los gobiernos podrían usar algoritmos de aprendizaje automático para monitorear la actividad pública de blockchain y conseguir saber qué actividades cotidianas de menor nivel de sus ciudadanos pueden ser vinculadas con sus identidades en blockchain. Esto podría incluir pagos (tanto interpersonales como de negocios) y servicios, ya sean de salud, financieros u otros. Su ubicación y la hora serían rastreados dondequiera que los ciudadanos tuviesen que mostrar su ID. Si bien esta es una violación de los derechos de privacidad, resulta especialmente problemático para los grupos marginados cuyo estatus legal en un país puede cambiar rápidamente y sin advertencia alguna. Aún más, semejante uso de blockchain asume que las personas estarían preparadas para adoptar dicha tecnología y podrían hacerlo, algo improbable dada la inseguridad financiera y la falta de acceso a la información y a la internet que muchos grupos vulnerables —como los refugiados— enfrentan. En este contexto es imposible conseguir un consentimiento informado significativo de estos grupos objetivo.

Las cadenas de bloques prometen anonimato, o al menos seudonimato, porque en los registros de transacciones se almacena información limitada sobre las personas. Sin embargo, esto no garantiza que las plataformas protejan la libertad de expresión. Por ejemplo, el regulador central de Internet en China propuso regulaciones que requerirían que las empresas locales de blockchain registren a los usuarios con sus nombres reales y números de tarjetas de identificación nacionales.

Transparencia de la cadena de suministros

Se ha usado blockchain para crear transparencia en la cadena de suministros y conectar a los consumidores directamente con los productores de los bienes que están comprando. Esto permite a los consumidores saber qué compañías siguen prácticas de producción éticas y sostenibles. Por ejemplo, Moyee Coffee usa blockchain para seguir su cadena de suministros y pone esta información a disposición de sus clientes, quienes pueden confirmar que los granos de café fueron recogidos por agricultores adultos remunerados, e incluso darles propina directamente.

Almacenaje descentralizado de los datos

Alrededor del mundo, la tecnología blockchain ayuda a las personas desplazadas a recuperar su ID y el acceso a otros servicios sociales. Aquí, un agente CARD en las Filipinas sigue los ID a mano. Crédito de la fotografía: Brooke Patterson/USAID.
Alrededor del mundo, la tecnología blockchain ayuda a las personas desplazadas a recuperar su ID y el acceso a otros servicios sociales. Aquí, un agente CARD en las Filipinas sigue los ID a mano. Crédito de la fotografía: Brooke Patterson/USAID.

Blockchain es resistente a los problemas tradicionales que una autoridad o depósito de datos central enfrenta cuando se le ataca o experimenta cortes. En un blockchain, los datos son compartidos y verificados constantemente entre todos los miembros, pero se ha criticado a esta tecnología porque se requieren grandes cantidades de energía, almacenaje y ancho de banda para mantener un depósito de datos compartidos. Esta descentralización es más valorada en las monedas digitales, que dependen de la escala de su blockchain para compensar el no tener un país o región que “posea” y regule la impresión de la moneda. También se ha explorado a blockchain para distribuir datos y coordinar recursos sin tener que depender de una autoridad central, para así resistir la censura.

Los blockchains prometen el anonimato, o al menos un pseudoanonimato, pues la información limitada referida a personas está guardada en los logs de transacciones. Sin embargo, esto no garantiza que la plataforma proteja la libertad de expresión. Por ejemplo, el regulador central de internet en China propuso regulaciones que requerirían que las compañías locales de blockchain registrasen a los usuarios con su nombre real y el número de su tarjeta de identificación nacional.
Blockchain y libertad de expresión

Inicio

Riesgos

El uso de tecnologías emergentes podría también crear riesgos en la programación de la sociedad civil. Lea a continuación cómo discernir los posibles peligros asociados a blockchain en el trabajo DRG, así como el modo de mitigar las consecuencias involuntarias y voluntarias.

Acceso desigual

Los requisitos mínimos para que una persona o grupo trate con blockchain constituyen un desafío para muchos. Se necesita conectividad, un ancho de banda confiable y robusto, así como almacenaje local. Por lo tanto, los teléfonos móviles a menudo son un dispositivo insuficiente para servir de host de blockchains o descargarlos. La infraestructura que requiere puede servir de barrera al acceso en áreas en donde la conectividad de Internet se da fundamentalmente a través de dispositivos móviles. Dado que cada nodo completo (host de un blockchain) guarda una copia del log de toda la transacción, los blockchains van haciéndose cada vez más grandes con el tiempo y podrían por ende hacer un uso extremadamente intensivo de los recursos como para descargarlos en un dispositivo móvil. Por ejemplo, en el lapso de unos cuantos años, los blockchains que subyacen a Bitcoin crecieron de varios gigabytes a varios centenares de ellos. Y en el caso del blockchain de una criptomoneda, este crecimiento es una señal necesaria de un saludable crecimiento económico. Si bien es posible usar un blockchain offline, los componentes desconectados son de los más vulnerables a los ciberataques, lo que podría poner en riesgo a todo el sistema.

Los blockchains, ya sean del todo independientes, ya que formen parte de otros blockchains ya existentes, necesitan que cierto porcentaje de los actores les presten la capacidad de procesamiento, lo cual a su vez se vuelve o bien excluyente, o sino crea clases de usuarios privilegiados, en particular cuando se amplía la escala.

Otro problema que podría minar los beneficios deseados del sistema es el acceso desigual a las oportunidades para convertir en monedas tradicionales a las monedas basadas en blockchain. Este en particular es un problema en relación con la filantropía, o para apoyar a organizaciones de la sociedad civil en entornos con regulaciones restrictivas. Para que las criptomonedas  tengan valor real, alguien tiene que estar dispuesto a pagar dinero por ellas.

Falta de conocimientos digitales

Más allá de estos desafíos técnicos, la tecnología de blockchain necesita de una sólida comprensión básica de la tecnología y su uso en situaciones en donde la competencia en informática es en sí misma un reto. El uso de la tecnología sin una comprensión básica de las consecuencias no constituye en realidad consentimiento y podría tener nefastas consecuencias.

Hay vías para evadir algunos de estos problemas, pero todo uso de blockchain requiere que reflexionemos acerca de qué posibles desigualdades podrían quedar exacerbadas por, o con, esta tecnología.

Es más, estas tecnologías son inherentemente complejas, y fuera del caso atípico en que las personas si cuentan con la sofisticación técnica y los medios para instalar un software de blockchain y establecer nodos, queda la pregunta de cómo será posible que la mayoría de las personas puedan efectivamente acceder a ellas. Esto es particularmente cierto de aquellas personas que tienen más dificultades para interactuar con la tecnología debido a su discapacidad, conocimientos o edad. Los usuarios mal preparados corren un mayor riesgo de que sus inversiones o información queden expuestas a ser hackeadas o hurtadas.


Blockchain y libertad de expresión

Violaciones a la privacidad

Los libros mayores del Nepali Savings and Credit Cooperatives muestran la carga del papel. Blockchain replica en línea el valor de los registros en papel y tinta. Crédito de la fotografía: Brooke Patterson/USAID.
Los libros mayores del Nepali Savings and Credit Cooperatives muestran la carga del papel. Blockchain replica en línea el valor de los registros en papel y tinta. Crédito de la fotografía: Brooke Patterson/USAID.

Guardar información sensible en un blockchain —como la biométrica o de género— conjuntamente con los aspectos inmutables del sistema, podría generar riesgos considerables para las personas cuando otros acceden a esta información con miras a causar daño. Las cuentas pseudoanónimas son difíciles de proteger de ser mapeadas a identidades en el mundo real, incluso cuando la información específica personalmente identificable no está guardada en un blockchain, en particular si está conectada con transacciones financieras, servicios y/o identidades reales. Esto podría erosionar los derechos a la privacidad y la protección de los datos personales, así como exacerbar la vulnerabilidad de poblaciones e individuos ya marginadas que cambian aspectos fundamentales de su persona (el género, su nombre). Los derechos a la privacidad de los datos, lo que incluye el consentimiento explícito, la modificación y la eliminación de sus datos, están ahora protegidos por leyes de protección de los datos y de privacidad, como el Reglamento General de Protección de los Datos (RGPD) de la Unión Europea, que sirve como marco para muchas otras políticas alrededor del mundo. Un panorama global de la legislación alrededor del mundo en esta área es mantenido actualizado por la Conferencia de las Naciones Unidas sobre Comercio y Desarrollo.

Por ejemplo, en septiembre de 2017 surgió la preocupación por los planes del gobierno de Bangladés de crear un ‘ID fusionado’ que combinaría los datos biométricos, financieros y de comunicaciones de los ciudadanos (Rahman, 2017). En aquel entonces, algunas organizaciones locales habían comenzado a explorar una solución de DLT para identificar y atender a las necesidades de los rohinyás locales que buscaban asilo y eran refugiados. Dado que las agencias de ayuda están obligadas a acatar las leyes nacionales, todo dato registrado en una plataforma DLT podía quedar sujeto a ser compartido automáticamente con las autoridades del gobierno. De haberse combinado estos conjuntos de registros, habían creado un registro conjunto imborrable, no editable y no alterable de los sumamente vulnerables rohinyás que buscan asilo, listo para cruzarlo con otros conjuntos de datos. “Cuando las agencias y los donantes de desarrollo y humanitarios se apresuran a adoptar nuevas tecnologías que facilitan la vigilancia, podrían estar creando y apoyando sistemas que plantean una serie amenaza para los derechos humanosde las personas”.

Estas cuestiones plantean preguntas acerca del consentimiento significativo e informado: ¿cómo y en qué medida los receptores de ayuda entienden las DLT y sus implicaciones cuando reciben la ayuda? […] La mayoría de los expertos coincide en que la protección de datos debe considerarse no sólo dentro del ámbito de la privacidad, el empoderamiento y la dignidad, sino también en términos de posibles impactos o daños físicos (ICRC y Brussels Privacy Hub, 2017; ICRC, 2018a)

BLOCKCHAIN Y LAS TECNOLOGÍAS DE CONTABILIDAD DISTRIBUIDA EN EL SECTOR HUMANITARIO

Impacto medioambiental

A medida que la escala de los blockchains crece, van requiriendo cantidades cada vez más grandes de capacidad de procesamiento para mantenerse sincronizados. En la mayoría de los blockchains de moneda digital, este problema de escala es balanceado recompensando a las personas que contribuyen a la capacidad de procesamiento requerida con monedas. La Universidad de Cambridge calcula que en otoño de 2019, Bitcoin por sí solo usaba el .28% del consumo global de electricidad, de modo que si Bitcoin fuera un país sería el 41º país más consumidor de energía, justo por delante de Suiza. Es más, el impacto negativo quedó demostrado con los estudios que mostraron que cada transacción de Bitcoin consume tanta energía como la que una casa bien equipada, con todos sus aparatos, requiere en toda una semana.

Incertidumbre reguladora

Tal como frecuentemente sucede con las tecnologías emergentes, las normas en torno al blockchain o bien son ambiguas o no existen. En algunos casos, como cuando la tecnología se puede usar para publicar mensajes censurados, los reguladores corrigen exageradamente y bloquean el acceso a todo el sistema, o retiran las protecciones pseudónimas del sistema dentro del país. En las democracias occidentales hay regulaciones financieras en evolución, así como la preocupación por la naturaleza inmutable de los registros guardados en un blockchain. La Información personalmente identificable (véase Privacidad, arriba) en un blockchain no puede ser removida o cambiada según lo requiere el derecho a ser olvidado del RGPD, y un contenido ampliamente ilegal ya ha sido insertado dentro del blockchain de bitcoin.

Cuestiones de confianza, control y gestión

Aunque un blockchain no cuenta con una “base de datos” central a la cual se podría hackear, tampoco tiene una autoridad central que decida o resuelva problemas. Está casi asegurado que una clave perdida o comprometida tendrá como resultado la pérdida de la capacidad de acceder a los fondos o, lo que es peor, a las identidades digitales. Las claves comprometidas o el uso ilegítimo del blockchain podría dañar a las personas involucradas, en particular cuando se accede a la información personal, o cuando las imágenes de abuso infantil quedan guardadas para siempre. La construcción de mecanismos que enfrenten este problema mina los beneficios claves del blockchain.

Habiendo dicho esto, se está teniendo una enorme confianza inherente en el proceso de desarrollo del software en torno a las tecnologías de blockchain, en especial las que usan contratos inteligentes. Todo defecto del software y toda “puerta trasera” intencional podría permitir un ataque que minaría o subvertiría todo el objetivo del proyecto.

Donde se está depositando la confianza, ya sea en los codificadores, los programadores, aquellos que diseñan y rigen los dispositivos móviles o apps; y si dicha confianza en realidad está siendo desplazada de las instituciones sociales a los actores privados. Todas las partes interesadas debieran considerar qué implicaciones tiene esto y cómo es que todos estos actores son responsables ante los estándares de los derechos humanos.

BLOCKCHAIN Y LA LIBERTAD DE EXPRESIÓN

Inicio

Preguntas

Hágase estas preguntas si está intentando entender las implicaciones que blockchain tiene en su entorno laboral, o si está pensando usar algunos de sus aspectos como parte de su programación de DRG:

  1. ¿Blockchain brinda características específicas y necesarias que las soluciones ya existentes, con un historial y sostenibilidad comparados, no tienen?
  2. Realmente necesita a blockchain, o acaso bastaría con una base de datos?
  3. ¿Cómo respetará esta implementación la privacidad de los datos y las leyes de control como RGPD?
  4. ¿Sus destinatarios deseados cuentan con el ancho de banda de internet necesario para usar el producto que está diseñando con blockchain?
  5. ¿Qué actores/socios externos controlarán aspectos cruciales de la herramienta o de la infraestructura de que este proyecto dependerá?
  6. ¿Qué actores/socios externos tendrán acceso a los datos que este proyecto cree? ¿Qué condiciones de acceso, límites o propiedad tendrán?
  7. ¿Qué nivel de transparencia y confianza tiene con estos actores/socios?
  8. ¿Hay formas de reducir la dependencia de estos actores/socios?
  9. ¿Cómo viene llevando a cabo y midiendo los procesos del consentimiento informado de todos los datos reunidos?
  10. ¿Cómo mitigará este proyecto las desigualdades técnicas, financieras y/o de infraestructura y se asegurará de que no se vean exacerbadas?
  11. ¿El uso de blockchain en su proyecto cumplirá con las leyes de protección y privacidad de los datos?
  12. ¿Otras leyes y políticas existentes abordan los riesgos y ofrecen medidas de mitigación relacionadas con el uso de blockchain en su contexto, como las normas contra el lavado de dinero?
  13. ¿Se vienen preparando leyes que podrían mitigar su proyecto o incrementar los costos?
  14. ¿Las leyes existentes posibilitan los beneficios que ha identificado para el proyecto activado con blockchain?
  15. ¿Están dichas leyes alineadas con la ley internacional de los derechos humanos, como el derecho a la privacidad, a la libertad de expresión y de opinión, y a gozar de los beneficios del progreso científico?

Back to top

Estudios de caso

Blockchain y la cadena de suministros

Blockchain ha sido usado para la transparencia de la cadena de suministro de productos que usualmente no son de suministro ético. Por ejemplo, en 2018 el World Wildlife Fund colaboró con Sea Quest Fiji Ltd., una compañía de pesca y procesamiento del atún, y con ConsenSys, una compañía tecnológica con un implementador llamado TraSeable, para usar blockchain para rastrear el origen del atún pescado en una pesquería fiyiana de pesca con palangre. Cada pescado era marcado cuando se le cogía y todo su viaje quedaba registrado en el blockchain. Esta metodología es también un arma para la sostenibilidad y las prácticas empresariales éticas en otras cadenas de suministros, incluyendo a las que dependen del trabajo infantil y forzado.

Blockchain para combatir la corrupción en el registro de títulos de tierras

En Georgia se diseñó un programa con el que enfrentar la corrupción en el manejo de la tierra en el país. La propiedad de la tierra es un sector particularmente vulnerable a la corrupción, debido en parte a que para los funcionarios del gobierno es muy fácil pedir sobornos a cambio de registrar la tierra, pues la propiedad se reconoce a través de títulos, los cuales pueden perderse o destruirse con facilidad. Se introdujo blockchain para brindar un registro transparente e inmutable de cada paso del proceso de registro de la tierra, de modo tal que el proceso de adquisición pudiera ser seguido, y que no hubiese peligro alguno de perder el registro.

Blockchain para pasaportes de vacunación de COVID-19

Una vez que la vacuna contra el COVID-19 fue hecha pública, muchos Estados consideraron implementar un sistema de pasaporte de vacunación, por el cual para ingresar a ciertos países o edificios, las personas estarían obligadas a mostrar documentación que probara que estaban vacunadas. Blockchain fue considerada como herramienta con la cual más fácilmente guardar los registros de vacunación y seguir las dosis sin consecuencias negativas para las personas que pierden su historial. Es cierto que hay significativos motivos de preocupación con la privacidad de los datos, en un sistema en donde no hay alternativa a permitir que nuestros datos se guarden en un blockchain, pero esto tendría en cambio significativos beneficios de salud pública. Es más, demuestra que los futuros documentos de identificación probablemente dependerán de blockchain.

Blockchain para facilitar las transacciones de la ayuda humanitaria

La ayuda humanitaria es el sector en donde más se ha adoptado blockchain para los derechos humanos y la democracia. Blockchain ha sido adoptado como una forma de combatir la corrupción y de asegurar que el dinero y la ayuda lleguen a los objetivos deseados; para permitir el acceso a las donaciones en países en donde las crisis han afectado al sistema bancario; y en coordinación con un ID digital, para permitir que las organizaciones donantes sigan mejor los fondos y hagan llegar el dinero a la gente sin los métodos tradicionales de recibir dinero digital.

Sikka, un proyecto del Nepal Innovation Lab, opera mediante asociaciones con vendedores locales y cooperativas dentro de la comunidad, enviando vales de valor y tokens digitales a personas mediante SMS. Los vales pueden usarse para comprar bienes humanitarios a los vendedores, en tanto que los tokens digitales pueden ser intercambiados por dinero en efectivo. La iniciativa también proporciona a los donantes datos con fines de monitoreo y evaluación. La Federación Internacional de Sociedades de la Cruz Roja y de la Media Luna Roja (IFRC) tiene un proyecto similar, el Blockchain Open Loop Cash Transfer Pilot Project (Proyecto piloto de transferencia de dinero en efectivo de open loop de blockchain) para programas de transferencias de dinero. El proyecto, con sede en Kenia, utiliza a Safaricom M-Pesa, un servicio móvil de transferencia de dinero que opera en el país, para enviar pagos a las billeteras móviles de los beneficiarios sin necesidad de tener documentación de ID nacional, y se usa a blockchain para seguir los pagos. Una plataforma administrativa llamada “Red Rose” permite a las organizaciones donantes manejar los datos, y el programa exploró muchas de las preocupaciones éticas que rodean al uso de blockchain.

La Start Network es otra organización de ayuda humanitaria que ha experimentado con el uso de blockchain para así dispersar los fondos, dados los beneficios de poder contar con menores costos de transferencia, transparencia y rapidez. Usando la plataforma Disperse, una plataforma de distribución para la ayuda extranjera, Start Network esperaba incrementar la comodidad del sector humanitario con la introducción de nuevas soluciones tecnológicas.

AIDONIC es una compañía privada con una herramienta de manejo de las donaciones que incentiva los donativos humanitarios con una plataforma que da a los donantes, particulares inclusive, un mayor control sobre el uso que se da a sus donaciones. Los pequeños donantes pueden elegir iniciativas específicas, las cuales se lanzarán cuando estén plenamente financiadas, y pueden monitorear, rastrear y seguir sus contribuciones a través de los proyectos.

Blockchain en la colaboración

Una aplicación humanitaria similar de blockchain es la colaboración. El proyecto Building Blocks del Programa Mundial de Alimentos, permite coordinar sus esfuerzos a las organizaciones que operan en la región, pero que ofrecen distintos tipos de ayuda humanitaria. Todos los actos de estas organizaciones quedan registrados en un blockchain privado compartido. Aunque el programa tiene la política de apoyar la privacidad de los datos, lo que incluye el no registrar dato alguno fuera del requerido; datos pseudónimos que sólo son proporcionados a orgs. humanitarias aprobadas, y no registrar información sensible alguna, las aplicaciones de blockchain en asistencia humanitaria generan un montón de preocupaciones de ciberseguridad y de privacidad de los datos, de modo tal que todos los miembros de la red deben ser aprobados. El proyecto no ha sido tan exitoso como se esperaba; solo ONU Mujeres y el Programa Mundial de Alimentos son miembros plenos, pero la red hace que para los beneficiarios sea más fácil acceder a la asistencia de ambas organizaciones, y brinda una imagen más clara a las organizaciones de ayuda de que tipos de asistencia están siendo proporcionados y qué falta.

Blockchain en la banca electrónica

Además de sus aplicaciones en el financiamiento humanitario, blockchain ha sido usado para enfrentar las brechas en los servicios financieros fuera de las zonas de crisis. Project i2i brinda una solución no tradicional para la población no bancarizada de las Filipinas. Mientras que instalar la infraestructura tecnológica de internet necesaria para establecer una banca tradicional en las áreas rurales resulta sumamente difícil y es intensiva en recursos, con blockchain cada banco sólo necesita un iPad. Con esto los bancos se conectan con la red Ethereum y los usuarios tienen acceso a un sistema confiable y eficiente con que procesar transacciones. Si bien el sistema ha tenido éxito en reducir el número de personas no bancarizadas en las Filipinas, aún quedan cuestiones del consentimiento informado puesto que la mayoría de los usuarios no tiene otra opción, y debido a los derechos de privacidad de los datos.

Blockchain y la integridad de los datos

Aunque la privacidad de los datos es un serio motivo de preocupación, blockchain también cuenta con el potencial para apoyar la democracia y el trabajo de derechos humanos mediante la recolección de datos, su verificación e incluso mediante el apoyo a su privacidad. El Blockchain for Development Solutions Lab de Chemonics de 2018 usó blockchain para hacer que el proceso de recolección y verificación de los biodatos de los profesionales de USAID fuera más eficiente. El uso de blockchain redujo los incidentes de error y fraude, y brindó una mayor protección a los datos debido a la defensa natural contra el hacking que los blockchains proporcionan, y porque en lugar de compartir documentos de ID a través del correo electrónico, el programa empleó llaves encriptadas en Chemonics.

Blockchain para verificar imágenes

Truepic es una compañía que brinda soluciones de verificación de datos. Ella respalda la integridad de la información almacenando información precisa acerca de imágenes que han sido verificadas. Truepic combina la tecnología de cámaras, que registran detalles pertinentes de cada foto, con un almacenaje en blockchain para así crear una base de datos de imágenes verificadas que no pueden ser alteradas. Esta base de datos puede entonces utilizarse para verificar las imágenes manipuladas.

Blockchain guardará permanentemente los artículos de noticias

Civil.co era una organización que apoyaba el periodismo y que usó blockchain para guardar permanentemente en línea los artículos de noticias contra la censura. Su uso de blockchain buscaba alentar la confianza de la comunidad en las noticias. En primer lugar, los artículos fueron publicados usando el blockchain mismo, lo que quiere decir que un usuario con suficiente capacidad técnica podía en teoría verificar que los artículos provenían de donde decían. Civil también apoyó la confianza con dos tecnologías que no eran de blockchain: una “constitución” que todas sus salas de prensa adoptaron, y un sistema de ranking a través del cual su comunidad de lectores y periodistas podía votar a favor de las noticias y salas de prensa a las cuales encontraban confiables. Publicando en un blockchain de par a par dio a sus publicaciones una resistencia adicional a la censura. Los lectores podían también pagar a los periodistas por artículos usando los tokens de Civil. Sin embargo, esta organización tuvo problemas desde el principio para reunir fondos, y su modelo de sala de prensa no logró mostrar que valía la pena.

Para más estudios de caso de blockchain revise estos recursos:

Inicio

Referencias

Encuentre a continuación las obras citadas en este recurso.

Recursos adicionales

Inicio

Categories

Criptomonedas

¿Qué son las criptomonedas?

Las criptomonedas son un tipo de moneda digital o virtual que usa la criptografía para efectuar transacciones seguras y privadas y tener el control de nuevas unidades. A diferencia de las monedas tradicionales emitidas por gobiernos (como el dólar de EE.UU., o el euro), las criptomonedas son típicamente descentralizadas y operan con la tecnología de blockchain. Fueron creadas después de la crisis financiera global de 2008 para descentralizar el sistema de transacciones financieras. Las criptomonedas se encuentran en contraste casi directo con el sistema financiero global: ninguna moneda está ligada a una autoridad estatal, no están limitadas por regulaciones geográficas y, lo más importante de todo, el mantenimiento del sistema es comunitario y lo mueve una red de usuarios. Todas las transacciones son registradas (log) anónimamente en un libro mayor (ledger) público, como bitcoin en blockchain.

Definiciones

Blockchain: Blockchain es un tipo de tecnología usada en muchas monedas digitales como el libro mayor de un banco (bank ledger). A diferencia de un libro mayor normal, sus copias están distribuidas digitalmente entre computadoras por todo el mundo, y se actualiza automáticamente con cada transacción.

Criptografía: la práctica de emplear técnicas matemáticas para asegurar y proteger la información, transformándola a un formato ilegible usando la encriptación y el hashing. En las criptomonedas, la criptografía protege las transacciones, la privacidad y la verificación de la propiedad usando técnicas tales como llaves público-privadas y firmas digitales en un blockchain.

Moneda: una moneda es un sistema de dinero en circulación ampliamente aceptado, usualmente designado por un país o un grupo de ellos. Usualmente toman la forma de billetes o monedas físicas, pero pueden también ser digitales (tal como lo explora este manual).

Dinero fiduciario: dinero emitido por un gobierno, como el dólar estadounidense. A veces se le conoce como dinero fíat.

Hashing: el proceso mediante el cual se verifican las transacciones en criptomonedas. Por ejemplo, cuando una persona paga a otra usando bitcoins, las computadoras del blockchain automáticamente revisan que la transacción sea precisa.

Hash: el problema matemático que las computadoras deben resolver para agregar transacciones al blockchain.

Oferta Inicial de Criptomonedas (OIC): el proceso mediante el cual una nueva criptomoneda o “token” digital invita inversiones.

Minado: el proceso mediante el cual una computadora resuelve un hash. La primera computadora en hacerlo permanentemente guarda la transacción como un bloque en el blockchain. Cuando una computadora agrega exitosamente un bloque al blockchain se le recompensa con una moneda. Tener la solución correcta de un hash antes que otro minero está relacionado con cuán rápidamente una computadora puede producir hashes. Por ejemplo, durante los primeros años de bitcoin, la minería se podía efectuar eficazmente usando software de código abierto en computadoras personales estándares. Más recientemente, sólo unas máquinas especializadas a las que se conoce como mineros de circuitos integrados de aplicación específica (ASIC), pueden extraer bitcoins de modo rentable porque están optimizadas para esta tarea. Ahora los grupos y compañías de mineros controlan la mayor parte de la actividad de los bitcoin.

¿Cómo funcionan las criptomonedas?

Agencias de transferencia de dinero en Nepal. Las criptomonedas tienen el potencial de permitir a los usuarios enviar y recibir remesas y acceder a mercados financieros extranjeros. Crédito de la fotografía: Brooke Patterson/USAID.

Los usuarios adquieren criptomonedas con una tarjeta de crédito o débito, cuenta bancaria o mediante el minado. Se las guarda en una “billetera” digital ya sea en línea, en una computadora o de modo desconectado en un dispositivo portátil de almacenaje, como una memoria USB. Estas billeteras se usan para enviar y recibir dinero mediante “direcciones públicas” o llaves que vinculan al dinero con un tipo específico de criptomoneda. Estas direcciones son cadenas de caracteres que significan la identidad de una billetera para las transacciones. La dirección pública de un usuario puede ser compartida con cualquiera para recibir fondos, y también puede ser representada como un código QR. Cualquiera con quien un usuario efectúe una transacción puede ver el saldo en la dirección pública que usa.

Aunque las transacciones son registradas públicamente, la información que identifica a los usuarios no lo está. Por ejemplo, en el blockchain de bitcoin, solamente la dirección pública del usuario aparece junto a la transacción, lo que hace que éstas sean confidenciales mas no necesariamente anónimas.

Las criptomonedas tienen que lidiar cada vez más con intensos periodos de volatilidad, la mayoría de los cuales se deben al sistema descentralizado del cual forman parte. La falta de un cuerpo central quiere decir que no son de curso legal, no están reguladas, hay poco o ningún seguro en caso la billetera digital de una persona sea hackeada, y la mayoría de los pagos no son reversibles. Las criptomonedas en consecuencia son inherentemente especulativas. En noviembre de 2021, bitcoin alcanzó su punto más alto a un precio de casi $65,000 por moneda, pero colapsó casi un año después luego del colapso de FTX lo que tuvo un efecto dominó en el sector cripto. Antes de la caída las nuevas y supuestas ‘meme coins’ que ganaron popularidad en las redes sociales, estaban viendo sustanciales incrementos de precio a medida que los inversionistas acudían en tropel a las nuevas monedas. La caída subsiguiente generó una creciente atención al endurecido control regulador sobre las criptomonedas y el trading. Algunas criptomonedas como Tether han intentado compensar la volatilidad ligando su valor de mercado a una divisa externa como el USD o el oro. Sin embargo, la industria en general aún no ha reconciliado cómo conservar un sistema autónomo y descentralizado con una estabilidad general.

Tipos de criptomonedas

El valor de una criptomoneda es sumamente dependiente de la fe que sus inversionistas le tienen, su integración en los mercados financieros, el interés del público en su uso, y su desempeño en comparación con otras criptomonedas. Bitcoin, que fuera fundada en 2008, fue la primera y única criptomoneda hasta 2011, cuando los “altcoins” comenzaron a aparecer. Los cálculos del número de criptomonedas varían, pero para junio de 2023 había alrededor de unos 23,000 tipos distintos de criptomonedas.

  • Bitcoin
    Cuenta con la más grande base de usuarios y una capitalización de mercado en los cientos de billones. Aunque inicialmente atrajo a instituciones financieras como Goldman Sachs, el colapso de su valor (junto con el de otras criptomonedas) en 2018 hizo que desde entonces creciera el escepticismo con respecto a su viabilidad en el largo plazo.
  • Ethereum
    Ethereum es una plataforma de software descentralizada que permite ejecutar contratos inteligentes y construir y automatizar aplicaciones descentralizadas (DApps) sin interferencia de terceros (como bitcoin: ambos funcionan con la tecnología de blockchain). Ethereum fue lanzada en 2015 y sobre la base de su capitalización de mercado es actualmente la segunda criptomoneda más grande después de bitcoin.
  • Ripple (XRP)
    Ripple es una red de procesamiento de pagos en tiempo real que ofrece pagos internacionales tanto instantáneos como de bajo costo, para así competir con otros sistemas de transacción como SWIFT o VISA. Es la tercer criptomoneda más grande.
  • Tether (USDT)
    Tether es uno de los primeros y el más popular de un grupo de “stablecoins”: criptomonedas estables que anclan su valor de mercado a una moneda u otro punto de referencia externo para así reducir la volatilidad.
  • Monero
    Monero es el más grande de los que se conocen como los privacy coins o monedas de privacidad. A diferencia de bitcoin, las transacciones y saldos de cuenta en monero no son públicos por defecto.
  • Zcash
    Zcash, otra criptomoneda que preserva el anonimato, opera bajo una fundación del mismo nombre. Se la ha marcado como una criptomoneda que tiene como base su misión y como eje la privacidad, y que permite a los usuarios “proteger su privacidad en sus propios términos”, y que considera la privacidad como algo esencial para la dignidad humana y para el funcionamiento saludable de la sociedad civil.

Vendedora de pescado en Indonesia. Las mujeres son el sector más sub-bancarizado y las tecnologías financieras pueden proporcionar herramientas con las cuales llenar esta brecha. Crédito de la fotografía: Afandi Djauhari/NetHope.

Inicio

¿De qué modo son las criptomonedas relevantes en el espacio cívico y para la democracia?

Las criptomonedas son de varios modos ideales para las necesidades de ONG, humanitarios y otros actores de la sociedad civil. Los actores del espacio cívico que necesitan contar con transacciones de bajo costo y que sean resistentes al bloqueo podrían encontrar que las criptomonedas son tanto convenientes como seguras. Su uso en el mundo en vías de desarrollo revela que su papel no es sólo como vehículos para la ayuda, sino también como herramientas que facilitan el desarrollo de pequeñas y medianas empresas (PYMEs) que buscan ingresar al comercio internacional. Por ejemplo, en 2019, UNICEF creó un criptofondo a fin de recibir y distribuir financiamiento en criptomonedas (ether y bitcoin). En junio de 2020, UNICEF anunció la más grande inversión que hubiese realizado en startups o empresas emergentes ubicadas en economías en vías de desarrollo, que estaban ayudando a responder a la pandemia de Covid-19.

Sin embargo, considerar a las criptomonedas solamente a través de un lente tradicional del desarrollo —esto es, que sólo podrían ser útiles para los refugiados o para países con dinero fíat no confiable— simplifica el paisaje económico de estos países de ingresos bajo y medio. Muchos países cuentan con una significativa población juvenil que está lista para usar las criptomonedas de modos innovadores, por ejemplo para enviar y recibir remesas, para acceder a los mercados financieros del extranjero y a posibilidades de inversión, e incluso para alentar un comportamiento adquisitivo ecológico o ético (véase la Sección de estudios de caso). Durante el encierro por el coronavirus en la India, y una vez que el banco central de reserva de este país levantara su prohibición de las criptomonedas, hubo muchos jóvenes que comenzaron a comerciar en criptomonedas indias y a usarlas para transferirse dinero entre ellos. Con todo, el futuro de cripto en India y otros lugares es incierto. La naturaleza fronteriza de las criptomonedas plantea riesgos significativos para los usuarios a la hora de los seguros, y en algunos casos la seguridad.

Es más, y como se verá más adelante, se piensa que la tecnología distribuida (blockchain) que subyace a las criptomonedas presenta resistencia a la censura, pues los datos están distribuidos a lo largo de una red de computadoras. El blockchain ofrece un alto nivel de anonimato, lo que podría resultar útil para quienes viven bajo regímenes autocráticos, de modo tal que los activistas democráticos podrían efectuar transacciones que de otro modo serían monitoreadas. Las criptomonedas podrían asimismo brindar acceso a la banca a una gama más amplia de gente, lo que constituye un elemento esencial de la inclusión económica.

Inicio

Oportunidades

Las criptomonedas pueden tener impactos positivos cuando se las usa para promover la democracia, los derechos humanos y las cuestiones de gobernanza. Lea a continuación de qué modo reflexionar eficazmente y con seguridad acerca de las criptomonedas en su trabajo.

Accesibilidad

Las criptomonedas son más accesibles a una gama más amplia de usuarios que las transacciones normales en efectivo; no están sujetas a las regulaciones gubernamentales y tampoco tienen altos costos de procesamiento. Las que son a través de las fronteras, en particular, se benefician con las características de las criptomonedas: las comisiones bancarias internacionales y las malas tasas de cambio pueden ser extremadamente costosas. (En algunos casos, el valor de las criptomonedas puede incluso ser más estable que el de la moneda local; (véase más adelante el estudio de caso de los mercados volátiles). Las criptomonedas que necesitan que los participantes se logueen (en los sistemas “permitidos”) requieren de una organización que controle la participación en su sistema. En algunos casos ciertos usuarios también ayudan a manejar el sistema de otros modos, por ejemplo operando como servidores. Cuando este es el caso, es importante entender quiénes son estos usuarios, cómo se les selecciona, y cómo es que su capacidad de usar el sistema podría ser retirada de resultar ser malos actores.

Las Ofertas Iniciales de Moneda (OIM) además bajan la barrera de ingreso a la inversión, sacando del proceso de inversión a los capitalistas de riesgo y bancos de inversión, y democratizando así el proceso. Aunque son similares a las Iofertas públicas de venta (OPV), las OIM difieren significativamente en que permiten a las compañías interactuar directamente con inversionistas individuales. Esto también constituye un riesgo para los inversionistas, pues las salvaguardas que los bancos de inversión ofrecen en las OPV tradicionales no valen. (Véase Falta de gobernanza e incertidumbre reguladora). La falta de cuerpos reguladores asimismo ha acicateado el crecimiento de OIM fraudulentos. Cuando una OIM o una criptomoneda no cuenta con una estrategia legítima para generar valor, se trata típicamente de una OIM que es una estafa.

Con todo, aún no se ha alcanzado una amplia accesibilidad debido a una combinación de factores, entre ellos las brechas de conocimiento, la capacidad de procesamiento y de internet requeridos, y la incompatibilidad entre los sistemas bancarios tradicionales y las fintech de criptomonedas. Para entender la usabilidad y el lado riesgoso del uso de las criptomonedas, así como los riesgos desproporcionados que los grupos marginados enfrentan, véase la sección sobre alfabetismo digital y los requisitos de acceso.

Anonimato y resistencia a la censura

La naturaleza descentralizada y de par a par de las criptomonedas podría ser un gran alivio para quienes buscan el anonimato, como los defensores de los derechos humanos que operan en espacios cerrados, o personas que simplemente buscan un equivalente al “efectivo” para las compras en línea (véase más adelante el estudio de caso de las criptomonedas en mercados volátiles). Éstas pueden ser útiles para quienes desean donar de modo anónimo a una fundación u organización cuando ello podría ponerles en riesgo de conocerse su identidad, lo que hace que sea una herramienta poderosa para los activistas. El anonimato de las criptomonedas también ha despertado la preocupación entre los grupos de interés, quienes sostienen que sin libros mayores abiertos y tracking, cripto podría ser usado por actores extranjeros intolerantes para financiar campañas más autoritarias.

Dado que los datos que apoyan la moneda están distribuidos a lo largo de una gran red de computadoras, resulta más difícil para un mal actor ubicar y enfocarse en una transacción u operación del sistema. Pero la capacidad de una moneda para proteger el anonimato depende en gran medida de la meta específica de la criptomoneda. Zcash, por ejemplo, fue diseñada específicamente para esconderle al público los montos transados y la dirección de los usuarios. Zcash también ha tenido un papel en permitir que haya más donativos de caridad, y varias organizaciones benéficas que abordan la investigación, el periodismo y la promoción del cambio climático funcionan con ella. Las criptomonedas con un gran número de participantes también son más resistentes a los cortes del sistema más benignos y rutinarios, porque los datos guardados en la red pueden operar si otros son violados.

Creando nuevos sistemas de gobernanza

Han sido pocos los intentos exitosos de regular las criptomonedas a nivel transnacional, quedándose la mayoría de los marcos de gobernanza a nivel nacional como mucho. Hay, por lo tanto, oportunidades sustanciales para la cooperación internacional en torno a la gobernanza cripto, y vienen creciendo los esfuerzos para crear redes multilaterales y sociedades entre los sectores privado y público. Por ejemplo, el Digital Currency Governance Consortium (Consorcio de Gobernanza Global para Monedas Digitales) está conformado por 80 organizaciones de todo el mundo y ayuda a facilitar las discusiones en torno a la promoción de la competitividad, la estabilidad y protecciones financieras, y marcos reguladores en relación con las criptomonedas.

Inicio

Riesgos

Un usuario en Filipinas recibe la confirmación de la transacción. Los usuarios compran criptomonedas con una tarjeta de crédito o débito, cuenta bancaria o minando. Crédito de la fotografía: Brooke Patterson/USAID.

El uso de las tecnologías emergentes podría crear también riesgos en los programas de la sociedad civil. Lea a continuación cómo distinguir los posibles peligros asociados con las criptomonedas en el trabajo DRG, así como el modo de mitigar las consecuencias involuntarias y voluntarias.

Anonimato

Aunque ninguna autoridad central registra las transacciones de criptomonedas, su naturaleza pública no impide que los gobiernos las registren. Una identidad que pueda ser asociada con los registros en un blockchain es un problema en particular bajo los gobiernos de vigilancia totalitaria. Por ejemplo, el regulador central de internet en China propuso regulaciones que requerirían que las compañías locales de blockchain registraran a los usuarios con su nombre real y el número de su tarjeta de identificación nacional. Para comerciar o intercambiar una criptomoneda a un dinero fíat ya establecido, una nueva moneda digital tendría que incorporar a su proceso de inscripción de nuevos usuarios, las normas de Conozca a su cliente (CSC), Contra el lavado de dinero (CLD) y Combatir el financiamiento del terrorismo (CFT), además de validar su identidad. Estos procesos constituyen una gran barrera para los migrantes indocumentados y todo aquel que no tenga un documento gubernamental de ID válido.

Como vemos en el estudio de caso que aparece a continuación, el entorno parcialmente anárquico de las criptomonedas puede también fomentar la actividad criminal.

Case Study: The Dark Side Estudio de caso: el lado oscuro del usuario anónimo. A bitcoin y otras criptomonedas se las alaba por apoyar transacciones financieras que no revelan la identidad de un usuario. Pero esto ha hecho que sean populares en sitios de la “dark web” como Silk Road, en donde las criptomonedas pueden ser canjeadas por bienes y servicios ilegales como drogas, armas o trabajo sexual. The Silk Road fue eventualmente cerrado por la Oficina Federal de Investigación de los EE.UU. cuando Ross Ulbricht, su fundador, usó el mismo nombre para publicitar el sitio y buscar empleados en otro foro, ligándolo con una dirección de Gmail. Google proporcionó el contenido de dicha dirección a las autoridades al ser citado judicialmente.

Las lecciones a aprender del caso de Silk Road son que el anonimato rara vez es perfecto e inviolable; que la protección de identidad de las criptomonedas no es una garantía a prueba de balas; y que los funcionarios policiales y los gobiernos han intentado incrementar las herramientas reguladoras con las que cuentan, así como la cooperación internacional en delitos que involucran a las criptomonedas. En un blockchain público, una sola falla de identidad (incluso en algún otro foro) podría ligar todas las transacciones de dicha cuenta de criptomoneda a un usuario. El propietario de dicha billetera podría entonces ser conectado a sus compras subsiguientes, con tanta facilidad como una cookie sigue la actividad de exploración de un usuario en la red.

Falta de gobernanza

La falta de un cuerpo central incrementa enormemente el riesgo de invertir en una criptomoneda. Los usuarios tienen poco o ningún recurso en caso el sistema sea atacado digitalmente y sus monedas robadas. En 2022, unos delincuentes hackearon el blockchain FTX y robaron $415 millones en criptomonedas, en uno de los más grandes hackeos de la historia, apenas horas antes de que la compañía se viera remecida por un escándalo de desfalco. Esto hizo que los reguladores gubernamentales incrementaran el escrutinio del sector, puesto que los usuarios no pudieron recuperar gran parte de los fondos robados.

Incertidumbre reguladora

Los marcos legal y regulador de blockchain vienen desarrollándose a un ritmo mucho más lento que la tecnología. Cada jurisdicción —ya sea dentro de un país o zona financiera, como los 27 países europeos a los que se conoce como el espacio Schengen, que han abolido los pasaportes y los controles fronterizos — regula las criptomonedas de distinto modo, y aún no contamos con un estándar financiero global que las regule. Por ejemplo, los siete países árabes que lindan con el Golfo Pérsico (los Estados del Golfo) han implementado una serie de leyes distintas sobre las criptomonedas: en los Emiratos Árabes Unidos y Arabia Saudí enfrentan su prohibición total. Otros países han diseñado leyes tributarias, contra el lavado de dinero y antiterroristas para reglamentar las criptomonedas. En muchos lugares éstas son gravadas como una propiedad, y no como una moneda.

El compromiso de las criptomonedas con la autonomía —esto es, su separación de un dinero fíat— las ha enfrentado con muchos cuerpos reguladores. Los observadores señalan que por ejemplo, eliminar la capacidad de los intermediarios (v.g., gobiernos o bancos) para cobrar comisiones por las transacciones, altera los equilibrios de poder existentes y podría desencadenar regulaciones prohibitivas aun cuando temporalmente disminuya los costos financieros. Así siempre hay el riesgo de que los gobiernos preparen políticas desfavorables para las tecnologías financieras (fintech), las que harían que las criptomonedas y monedas móviles sean inútiles dentro de sus fronteras. La naturaleza constantemente cambiante de las leyes referidas a las fintech resulta difícil para cualquier nueva moneda digital.

Ineficiencia medioambiental

Cuanto más crece un blockchain tanta más capacidad de procesamiento requiere. A finales de 2019, la Universidad de Cambridge calculó que bitcoin usa el .55% del consumo global de electricidad. Este nivel de consumo equivale aproximadamente al uso de Malasia y Suecia.

Alfabetismo digital y requisitos de acceso

La tecnología de Blockchain detrás de las criptomonedas requiere tener acceso a internet, y las zonas con una infraestructura o capacidad inadecuadas no serían contextos usables para ellas, aun cuando sí hay una posibilidad limitada de usarlas sin tener acceso a internet. Según señalara DH Network, “Esta brecha digital asimismo se extiende a la comprensión tecnológica entre aquellos que saben cómo ‘operar con seguridad en la Internet, y los que no”. Las apps de criptomonedas no pueden emplearse en los dispositivos de baja gama, que requieren que los usuarios usen un teléfono inteligente o una computadora. Las apps mismas involucran una curva de aprendizaje empinada. Además, la baja velocidad de las transacciones —que pueden tomar minutos o hasta una hora— es una desventaja significativa, en particular cuando se la compara con la rapidez de segundos de las transacciones estándares de Visa. Por último, usar plataformas como bitcoin puede resultar particularmente difícil para los grupos con tasas más bajas de alfabetismo digital, así como para aquellos con menores recursos y que son menos resilientes financieramente a la volatilidad del mercado cripto. Dada la falta de protección al consumidor y de regulación de las criptomonedas que existe en ciertas áreas, además de la falta de conciencia de los riesgos existentes, es más probable que los usuarios de bajos ingresos e inversionistas enfrenten consecuencias financieras negativas durante las fluctuaciones del mercado. Recientemente, sin embargo, algunos países, como Ghana y Gambia, vienen lanzando iniciativas gubernamentales para cubrir la brecha en el alfabetismo digital y conectar a grupos, por lo demás marginados, con las herramientas necesarias para usar eficazmente cripto y otras formas de tecnología emergente.

Inicio

Preguntas

Hágase esas preguntas si está intentando entender las implicaciones que las criptomonedas tienen en su entorno laboral, o si está considerando usarlas como parte de su programación de DRG:

  1. ¿Las cuestiones que usted o su organización buscan enfrentar necesitan de las criptomonedas? ¿Podrían acaso soluciones monetarias más tradicionales aplicarse al problema?
  2. ¿Las criptomonedas son una moneda apropiada para las poblaciones con las cuales está trabajando? ¿Les ayudarán a acceder a los recursos que necesitan? ¿Son aceptadas por las otras partes interesadas relevantes?
  3. ¿Usted o su organización necesitan una base de datos inmutable distribuida entre múltiples servidores? ¿Estaría bien si la moneda y las transacciones están unidas a un servidor central?
  4. ¿La criptomoneda que desea usar es viable? ¿Confía en ella y tiene una buena razón para asumir que será lo suficientemente estable en el futuro?
  5. ¿La moneda es legal en las zonas en donde estará operando? De no serlo, ¿será este un problema para su organización?
  6. ¿Cómo obtendrá esta moneda? ¿Qué riesgos están involucrados? ¿De qué actores externos dependerá?
  7. ¿Los usuarios de esta moneda podrán beneficiarse con ella fácilmente y con seguridad? ¿Tendrán los dispositivos y los conocimientos necesarios?

Inicio

Estudios de caso

Agencia monetaria móvil en Ghana. El uso de criptomonedas en el mundo en vías de desarrollo puede facilitar el desarrollo de empresas pequeñas a medianas que buscan entrar al comercio internacional. Crédito de la fotografía: John O’Bryan/ USAID.
Cripto está ayudando a conectar a la gente de los países de bajos ingresos con los mercados globales

Para muchos actores humanitarios, el papel ideal de las criptomonedas es facilitar la transferencia de remesas a familias a través de las fronteras. Esto es particularmente útil durante los conflictos, cuando los sistemas bancarios tradicionales podrían cerrar. Las transferencias a través de las fronteras pueden ser costosas y estar sujetas a complejas regulaciones, pero apps como Strike están ayudando a facilitar el proceso. Strike y Bitnob se asociaron para permitir que gente que vive en Kenia, Nigeria y Ghana recibieran fácilmente pagos instantáneos de cuentas en bancos de los EE.UU. a través de la red relámpago de Bitcoin, y que convirtieran los pagos a moneda local. Las apps de bitcoin y otras fintech son sumamente útiles para empresarios de la clase media alta en países de bajos ingresos, que están construyendo negocios internacionales a través del comercio tradicional y en línea, y apps emergentes como Strike podrían ayudar a llevar la accesibilidad bancaria a zonas sub-bancarizadas.

Usando Cripto para incrementar la accesibilidad en regímenes autoritarios

Algunos participantes en el activismo de los derechos humanos sostienen que las criptomonedas han ayudado a quienes se encuentran bajo regímenes autoritarios, a conservar lazos financieros con el mundo externo. Dado el anonimato asociado con las transacciones en criptomonedas la nueva forma tecnológica podría ofrecer oportunidades para comerciar y efectuar transacciones en donde de otro modo no sería posible. En China y Rusia por ejemplo, las transacciones financieras que normalmente serían monitoreadas por el Estado, pueden evadirse usando las criptomonedas. Bitcoin y otras plataformas también ofrecen plataformas para los refugiados y otras personas que no cuentan con formas tradicionales de identidad, para que accedan a sus finanzas. A la inversa, los críticos han argüido que diversas criptomonedas a menudo se usan en la compra de bienes en el mercado negro, lo que a menudo involucra a industrias explotadoras como las drogas y el tráfico sexual, o que podrían ser usadas por países ampliamente sancionados como Corea del Norte. Con todo, cripto podría llenar una brecha importante en situaciones en las cuales la gente podría estar separada de formas tradicionales de la banca.

Criptomonedas en mercados volátiles

En los últimos años, los países con mercados volátiles han venido incorporando lentamente a las criptomonedas en respuesta a las crisis financieras, a medida que la ciudadanía buscaba nuevas opciones. Bitcoin ha sido usado para comprar medicamentos, tarjetas de regalo de Amazon y enviar remesas. Las criptomonedas también han sido adoptadas cada vez más a nivel institucional. El Salvador introdujo una ley para regular a bitcoin en enero de 2023, dos años antes de su reconocimiento formal como moneda de curso legal. A pesar de la esperanza de que Bitcoin sería usado para facilitar el proceso de enviar remesas e incrementar la accesibilidad de la población sub-bancarizada, su uso generalizado no ha pegado y los usuarios citan las altas comisiones como razón para evitar la criptomoneda. Es más, muchos aún mencionan la incertidumbre y la falta de conocimiento como razones por las cuales no han dejado las formas tradicionales de banca e intercambio. La introducción de bitcoin también ha empeorado la calificación crediticia de El Salvador y supuestamente provocado una mayor división con el Fondo Monetario Internacional (FMI). Bitcoin es además sumamente volátil porque depende de la oferta y la demanda en lugar de estar anclado a un activo, como lo están la mayoría de las demás monedas, pero el gobierno de El Salvador ha introducido leyes para regular los intercambios de cripto.

Venezuela, que además enfrenta una inflación sin precedentes, también se ha pasado a cripto. Entre agosto de 2014 y noviembre de 2016, el número de usuarios de bitcoin en Venezuela subió de 450 a 85,000. La crisis financiera del país ha hecho que muchos de sus ciudadanos busquen nuevas opciones. En Venezuela no hay ninguna ley que reglamente a bitcoin, lo que ha animado aún más a la gente. Algunos países con mercados financieros que han experimentado tasas de inflación similares a las de Venezuela—como Sudán del Sur, Zimbabue y Argentina— tienen mercados de criptomonedas relativamente activos Venezuela, que también ha enfrentado una inflación sin precedentes, también ha recurrido a las criptomonedas.

Criptomonedas para el impacto social

Muchas nuevas criptomonedas han intentado monetizar el impacto social de sus usuarios. SolarCoin recompensa a quienes instalan paneles solares. Tree Coin reúne recursos para sembrar árboles en el mundo en vías de desarrollo (como una forma de combatir el cambio climático) y recompensa a las poblaciones locales por cuidar a dichos árboles. Impak Coin es “la primera app en recompensar y simplificar el consumo responsable”, ayudando a los usuarios a encontrar empresas socialmente responsables. La moneda que ofrece busca ser utilizada para comprar productos y servicios de estas empresas, y para apoyar a los usuarios en microcréditos y préstamos entre particulares. Forma parte de un ecosistema de tecnologías que incluye calificaciones basadas en las Metas de Desarrollo Sostenible de la ONU y el Impact Management Project. Fiel a sus principios, Impak ha propuesto comenzar a evaluar su impacto. En el futuro, el impacto de SolarCoin podría ser limitado puesto que el valor sigue siendo relativamente bajo en comparación con los costos de instalación, potencialmente disuadiendo así a la gente de usarlo de modo más amplio. Pero Treecoin, en cambio, podría estar teniendo un impacto más directo sobre las comunidades locales, tal como lo demostró el Mangrove restoration project (proyecto de restauración de los manglares).

Inicio

Referencias

A continuación encontrará las obras citadas en este recurso.

Recursos adicionales

Inicio

Categories

Protección de datos

¿Qué es la protección de datos?

La protección de datos se refiere a las prácticas, medidas y leyes que buscan prevenir que cierta información acerca de una persona sea recolectada, usada o compartida de modo tal que sea dañina para ella.

Entrevista con un pesador en Bone, Célebes Meridional, Indonesia. Los recolectores de datos deben recibir capacitación sobre cómo evitar los sesgos durante el proceso de recolección de datos. Crédito por la fotografía: Indah Rufiati/MDPI – cortesía de USAID Oceans.

La protección de datos no es nueva. Los actores malos siempre han buscado acceder a los registros privados de las personas. Antes de la era digital, la protección de datos significaba proteger los datos privados de una persona de que alguien accediera a ellos físicamente, los viera o tomara carpetas y documentos. Las leyes de protección de datos existen hace ya más de 40 años.

Ahora que muchos aspectos de la vida de las personas se han pasado en línea, la información privada, personal e identificable es compartida con regularidad con todo tipo de entidades privadas y públicas. La protección de datos busca asegurar que esta información sea recogida, almacenada y mantenida responsablemente y que las consecuencias involuntarias de su uso sean minimizadas o mitigadas.

¿Qué son los datos?

Con datos nos referimos a información digital como mensajes de texto, videos, clics, huellas dactilares digitales, un bitcoin, el historial de búsqueda y hasta los simples movimientos del cursor. Los datos pueden guardarse en computadoras, dispositivos móviles, en nubes y discos duros externos. Se les puede compartir por correo electrónico, apps de mensajería y herramientas de transferencia de archivos. Sus publicaciones, me gusta y retweets, sus videos de gatos y protestas, y todo lo que comparte en las redes sociales son datos.

Los metadatos son un subconjunto de los datos. Son información guardada dentro de un documento o archivo. Son una huella digital electrónica que contiene información acerca del documento o archivo. Usemos un correo electrónico como ejemplo. Si envía uno a su amigo, su texto son los datos. El correo mismo, sin embargo, contiene toda suerte de metadatos como quién lo creó, quién es el receptor, la dirección IP del autor, el tamaño del mensaje, etc.

Grandes cantidades de datos quedan combinados y guardados juntos. Estos grandes archivos contienen miles o millones de archivos individuales a los que se conoce como conjuntos de datos. Estos últimos son combinados a su vez en conjuntos de datos sumamente grandes. Y estos últimos, a los que se conoce como big data, se usan para entrenar a los sistemas de aprendizaje automático systems.

Datos personales e información personalmente identificable

Los datos pueden parecer sumamente abstractos, pero los pedazos de información a menudo reflejan bastante la identidad o los comportamientos de personas reales. No todos los datos necesitan ser protegidos, pero algunos de ellos, los metadatos inclusive, pueden revelar bastante acerca de una persona. A esto se conoce como Información Personal de Identificación (PII). A la PII usualmente se la conoce como datos personales. Es información que se puede usar para distinguir o rastrear la identidad de una persona como un nombre, el número de pasaporte o los datos biométricos como las huellas digitales y los patrones faciales. PII es también información vinculada a o vinculable con una persona, como su fecha de nacimiento y su religión.

Los datos personales pueden ser recolectados, analizados y compartidos para beneficio de las personas involucradas, pero también pueden usarse con fines dañinos. Ellos son valiosos para muchos actores públicos y privados. Por ejemplo, los recogen las plataformas de redes sociales y son vendidos a compañías de publicidad. Son recolectados por los gobiernos para servir a fines policiales, como perseguir el delito. Los políticos valoran los datos personales para enfocarse en votantes con cierta información política. Estos datos pueden ser monetizados por personas con intenciones criminales, como la venta de identidades falsas.

“Compartir datos es una práctica regular que está haciéndose cada vez más ubicua a medida que la sociedad pasa a estar en línea. Compartirlos no sólo trae beneficios a los usuarios, sino que además es a menudo necesario para cumplir labores administrativas o interactuar con la sociedad actual. Pero no está libre de riesgos. Su información personal revela bastante de usted mismo, sus pensamientos y su vida, que es la razón por la cual necesita ser protegida”.

Access Now’s ‘Creating a Data Protection Framework’, Noviembre de 2018.

¿Cómo se relaciona la protección de datos con el derecho a la privacidad?

El derecho a la protección de los datos personales está estrechamente interconectado con el derecho a la privacidad, pero es algo distinto. La comprensión de qué significa “privacidad” varía de un país a otro basado en su historia, cultura o influencias filosóficas. La protección de datos no siempre es considerada un derecho en sí mismo. Lea aquí más acerca de las diferencias existentes entre la privacidad y la protección de los datos.

La privacidad de los datos es también una forma común de hablar acerca de datos sensibles y la importancia de protegerlos de su compartición involuntaria, así como la recolección y uso indebido o ilegal de datos acerca de una persona o grupo. La estrategia digital de USAID para 2020 – 2024 la define como ‘el derecho de una persona o grupo a conservar el control sobre, y la confidencialidad de, la información de sí misma’.

¿Cómo funciona la protección de datos?

Participante en el programa WeMUNIZE de USAID en Nigeria. La protección de datos debe también ser considerada para conjuntos de datos existentes. Crédito de la fotografía: KC Nwakalor for USAID / Digital Development Communications

Los datos personales pueden y debieran ser resguardados con medidas que protejan la identidad u otra información acerca de una persona, y que respeten su derecho a la privacidad. Ejemplos de tales medidas incluyen el establecer qué datos son vulnerables sobre la base de evaluaciones de riesgo de la privacidad; no mantener datos sensibles en línea; limitan quién puede acceder a ciertos datos; anonimizar los datos sensibles; y sólo recoger los que sean necesarios.

Hay un par de principios y prácticas establecidos para proteger los datos sensibles. En muchos países, estas medidas son impuestas a través de leyes, las cuales contienen los principios claves que son importantes para garantizar la protección de los datos.

“Las leyes de protección de datos buscan proteger los del pueblo dando a las personas derechos sobre ellos, imponiendo normas sobre la forma en que las compañías y gobiernos los usan, y estableciendo reguladores que hacen cumplir las leyes”.

Privacy International sobre protección de datos

A continuación se esbozan un par de términos y principios importantes, que tienen como base el Reglamento General de Protección de Datos de la Unión Europea (GDPR).

  • Sujeto de los datos: toda persona cuyos datos personales estén siendo procesados, como ser añadidos a una base de datos de contactos o a una lista de correo de mensajes publicitarios.
  • Procesamiento de datos quiere decir toda operación realizada con datos personales, ya sea anual o automatizada.
  • Controlador de datos: el actor que determina los fines y medios para los cuales se procesan los datos personales.
  • Procesador de datos: el actor que procesa los datos personales a nombre del controlador; a menudo es un tercero externo a este último, como una parte que ofrece listas de correo o servicios de encuesta.
  • Consentimiento informado: las personas entienden y aceptan que sus datos personales serán recolectados, que se tenga acceso a ellos, se les use y/o comparta, y cómo pueden retirar su consentimiento.
  • Limitación de fines: los datos personales se recogen sólo para un uso específico y justificado, y las otras partes no pueden usarlos con otros fines.
  • Minimización de los datos: la recolección de datos es minimizada y queda limitada a los detalles esenciales.

 

Proveedor del cuidado de salud en Eswatini. Los datos de calidad y los conjuntos de datos protegidos pueden acelerar el impacto en el sector de la salud pública. Crédito de la fotografía: Ncamsile Maseko & Lindani Sifundza.

La guía de Access Now enumera ocho principios de protección de los datos que provienen mayormente de estándares internacionales, en particular de la Convención del Consejo de Europa para la para la Protección de las Personas, en relación con el Procesamiento Automático de Datos Personales (ampliamente conocida como la Convención 108), y de las Privacy Guidelines de la Organización para la Cooperación y el Desarrollo Económico (OCDE): los países que han ratificado los marcos internacionales de protección de datos consideran que son los “estándares mínimos” para la protección de los derechos fundamentales.

Un proyecto de desarrollo que use datos, ya sea mediante una lista de correo o analizando conjuntos de datos, debiera cumplir con las leyes que rigen su protección. De no haber un marco legal nacional, los principios, normas y estándares internacionales pueden servir de línea de base para alcanzar el mismo nivel de protección de los datos y las personas. El acatamiento de estos principios podría parecer molesto, pero implementar unos cuantos pasos relacionados con la protección de datos desde el inicio mismo del proyecto le ayudará a alcanzar los resultados deseados sin poner a la gente en riesgo.

common practices of civil society organizations relate to the terms and principles of the data protection framework of laws and norms

La figura anterior muestra de qué modo las prácticas comunes de las organizaciones de la sociedad civil se relacionan con los términos y principios del marco de las leyes y normas de la protección de datos.

El Reglamento General de Protección de Datos de la Unión Europea (GDPR)

El RGPD, la ley de protección de datos de la UE, entró en vigor en 2018. Se la suele considerar la ley de protección de datos más sólida del mundo. Ella busca mejorar la forma en que la gente puede acceder a su información y limita lo que las organizaciones pueden hacer con los datos personales de los ciudadanos de la UE. Aunque proviene de la UE, el RGPD puede aplicarse también a organizaciones con sede fuera de la región cuando concierne a los datos de sus ciudadanos. El RGPD tiene, por ende, un impacto global.

Las obligaciones derivadas del RGPD y de otras leyes de protección de datos podrían tener amplias implicaciones para las organizaciones de la sociedad civil. Para información acerca del proceso de cumplimiento del RGPD y otros recursos, véase la guía del European Center for Not-for-Profit Law sobre los estándares de la protección de datos para organizaciones de la sociedad civil.

A pesar de sus protecciones, el RGPD también ha sido usado para acosar a los CSO y a periodistas. Por ejemplo, una compañía minera usó una de sus disposiciones para intentar obligar a Global Witness a que revelara las fuentes que usó en una campaña antiminera. Global Witness resistió dichos intentos exitosamente.

Tácticas de protección personales u organizacionales

La forma en que proteja su propia información sensible o los datos de su organización dependerá de su situación específica en términos de sus actividades y entorno legal. El primer paso es evaluar sus necesidades específicas en función a la seguridad y la protección de datos. Por ejemplo, qué información, de caer en manos equivocadas, podría tener consecuencias negativas para usted y su organización?

Los especialistas en seguridad digital han preparado recursos en línea a los cuales puede usar para protegerse. Ejemplos de ello son Security Planner, una guía fácil de usar con consejos revisados por expertos para estar más seguro en línea, y con recomendaciones para implementar prácticas básicas en línea. El Digital Safety Manual ofrece información y consejos prácticos sobre cómo mejorar la seguridad digital de los funcionarios gubernamentales que trabajan con la sociedad civil y los Defensores de los Derechos Humanos (DDH). Este manual brinda 12 cartillas adaptadas a diversas actividades comunes en la colaboración entre gobiernos (y otros socios) y las organizaciones de la sociedad civil. La primera cartilla ayuda a evaluar la seguridad digital.

Manual de seguridad digital

 

Primeros auxilios digitales es un recurso gratuito para personal de respuesta rápida, capacitadores en seguridad digital y activistas expertos en tecnología para que protejan mejor, a sí mismos y a las comunidades a las que apoyan, de los tipos más comunes de emergencias digitales. Los respondedores y mentores de seguridad digital global pueden ayudar con preguntas específicas o con su mentoría, por ejemplo, e Digital Defenders Partnership y el Computer Incident Response Centre for Civil Society (CiviCERT).

Inicio

¿De qué modo es la protección de datos relevante en el espacio cívico y para la democracia?

Muchas iniciativas que buscan fortalecer el espacio cívico o mejorar la democracia emplean tecnología digital. Hay una difundida creencia en que el creciente volumen de datos y las herramientas para procesarlos pueden ser usados para el bien. Y en efecto, la integración de la tecnología digital y el uso de los datos en la democracia, los derechos humanos y la programación de la gobernanza puede tener beneficios significativos; pueden, por ejemplo, conectar a comunidades alrededor del mundo, llegar mejor a poblaciones carentes de servicios, y ayudar a mitigar la desigualdad.

“Dentro del trabajo del cambio social usualmente hay una cruda asimetría de poder. Desde el trabajo humanitario a hacer campañas, de documentar las violaciones de los derechos humanos a la construcción de movimientos, las organizaciones promotoras a menudo están lideradas por —y trabajan con— comunidades vulnerables o marginadas. Frecuentemente abordamos el trabajo del cambio social a través de un lente crítico, priorizando cómo mitigar las asimetrías de poder. Creemos en la necesidad de hacer lo mismo cuando se trata de los datos con los que trabajamos: cuestionarlos, entender sus limitaciones y aprender de ellos en formas responsables”.

¿Qué son los datos responsables?

Si la información de calidad está disponible para las personas correctas cuando la necesitan, los datos están protegidos contra el mal uso, y el proyecto está diseñado con la protección de datos en mente, entonces puede acelerar el impacto.

  • El financiamiento que USAID hiciera de una mejor inspección de los viñedos usando drones y datos de GIS en Moldova, permite a los agricultores inspeccionar, identificar y aislar rápidamente los viñedos infectados con una enfermedad fitoplasmática de la vid.
  • Círculo es una herramienta digital para mujeres periodistas en México que les ayuda a crear fuertes redes de apoyo, a fortalecer sus protocolos de seguridad y a satisfacer las necesidades relacionadas con la protección de sí mismas y sus datos. Fue diseñada con los usuarios finales a través de grupos de chat y talleres presenciales, para así asegurarse de que todo lo que fuese construido en la app sería algo que necesitan y en que pueden confiar.

Al mismo tiempo, el desarrollo impulsado por los datos trae consigo la nueva responsabilidad de prevenir su mal uso cuando se diseñan, implementan o monitorean los proyectos de desarrollo. Los problemas de privacidad y seguridad son sumamente reales cuando el uso de los datos personales es un medio con el cual identificar a las personas que son elegibles para los servicios humanitarios.

  • Los campamentos de refugiados en Jordania necesitaron que los miembros de la comunidad permitieran que se escanease su iris para comprar alimentos y provisiones, y retirar dinero de los ATM. Esta práctica no integró formas significativas de pedir el consentimiento o permitir a las personas excluirse. Además, el uso y recolección de datos personales sumamente sensibles como los biométricos, para permitir hábitos cotidianos de compra, es algo desproporcionado, pues en muchas partes del mundo se cuenta con y usa otras tecnologías digitales menos personales.

Los gobiernos, organizaciones internacionales y actores privados pueden todos hacer un mal uso —incluso involuntariamente— de los datos personales con otros fines de los deseados, afectando así de modo negativo al bienestar de las personas relacionados con ellos. Privacy International resaltó algunos ejemplos:

  • El caso de Tullow Oil, la compañía más grande de exploración y producción de petróleo y gas en África, muestra como un actor privado consideró efectuar una investigación, extensa y detallada, del comportamiento de las comunidades locales a través de una compañía de investigación microfocalizada, para así conseguir ‘estrategias cognitivas y emocionales con las cuales influir y modificar las actitudes y el comportamiento de los turkanas’ en beneficio de Tullow Oil.
  • En Ghana, el Ministerio de Salud encargó un gran estudio de las prácticas y requerimientos de la salud en el país. Esto tuvo como resultado una orden del partido político gobernante, para que se modelara la distribución futura de los votos dentro de cada circunscripción a partir de cómo era que los encuestados decían que votarían, y que hubiese una campaña negativa que intentara conseguir que los partidarios de la oposición no votaran.

Hay recursos y expertos disponibles para ayudar en este proceso. La página web The Principles for Digital Development ofrece recomendaciones, consejos y recursos para proteger la privacidad y la seguridad a través del ciclo de vida de un proyecto, como en la etapa de análisis y planificación, en el diseño y desarrollo de proyectos y en su aplicación e implementación. También se cubren la medición y la evaluación. La página web The Responsible Data ofrece el Hand-Book of the Modern Development Specialist ilustrado y con una guía atractiva y entendible a lo largo de todos los pasos de un proyecto de desarrollo movido por datos: su diseño y el manejo de los datos, con información específica acerca de su recolección, comprensión y compartir, y el cierre de un proyecto.

Trabajadora de ONG se prepara para la recolección de datos en Buru Maluku, Indonesia. Cuando se recogen nuevos datos es importante diseñar el proceso cuidadosamente y pensar cómo afecta a las personas involucradas. Crédito de la fotografía: Indah Rufiati/MDPI – cortesía de USAID Oceans.

Inicio

Oportunidades

Las medidas de protección de datos promueven la democracia, los derechos humanos y las cuestiones de gobernanza. Lea a continuación para aprender cómo pensar de modo más eficaz y seguro acerca de la protección de datos en su trabajo.

Privacidad respetada y la gente protegida

La implementación de patrones de protección de datos en los proyectos de desarrollo protege a las personas de posibles daños debidos al abuso de su información. El abuso tiene lugar cuando una persona, compañía o gobierno accede a los datos personales y los usa con otros fines fuera de aquellos para los cuales fueron recogidos. Los servicios de inteligencia y las agencias policiales a menudo cuentan con medios legales y técnicos para imponer el acceso a los conjuntos de datos y abusar de ellos. Personas contratadas por los gobiernos pueden acceder a los conjuntos de datos hackeando la seguridad del software o de las nubes. Esto a menudo lleva a la intimidación, el silenciamiento y el arresto de los defensores de los derechos humanos, y a que los líderes de la sociedad civil critiquen a su gobierno. Privacy International mapea ejemplos de gobiernos y actores privados que abusan de los datos de las personas.

Unas fuertes medidas protectoras contra el abuso de datos aseguran el respeto al derecho fundamental a la privacidad de las personas cuyos datos fueron recogidos y usados. Las medidas protectoras permiten un desarrollo positivo como la mejora de las estadísticas oficiales, un mejor suministro de servicios, mecanismos de advertencia temprana focalizados, y una respuesta eficaz a los desastres.

Es importante establecer cómo es que los datos son protegidos a lo largo de todo el ciclo de vida de un proyecto. También debiera asegurarse a las personas la protección una vez terminado el proyecto, ya sea abruptamente o según estaba planeado, cuando el proyecto pasa a una fase distinta o cuando recibe financiamiento de distintas fuentes. Oxfam ha preparado un
folleto para ayudar a cualquiera que maneje, comparta o acceda a datos de programa, para que considere debidamente las cuestiones de los datos a lo largo de todo su ciclo de vida, desde preparar un plan a desecharlos.

Inicio

Riesgos

La recolección y el uso de datos puede también crear riesgos en la programación de la sociedad civil. Lea a continuación cómo discernir los posibles peligros asociados con la recolección y el uso de datos en el trabajo DRG, así como el modo de mitigar las consecuencias involuntarias y voluntarias.

Acceso no autorizado a los datos

Los datos necesitan estar guardados en algún lugar, en una computadora o en un disco externo, en una nube o en un servidor local. Dondequiera que se guarden los datos, se deben tomar precauciones para protegerlos de accesos no autorizados, y para evitar revelar la identidad de personas vulnerables. El nivel de protección necesario depende de cuán sensibles sean, esto es en qué medida podría haber consecuencias negativas si la información cae en manos equivocadas.

Los datos pueden guardarse en un servidor cercano y bien protegido, que está conectado con drives con una fuerte encriptación y acceso muy limitado, que es un método para mantener el control de los datos que posee. Los servicios en la nube ofrecidos por compañías tecnológicas bien conocidas, a menudo ofrecen medidas de protección básica y un amplio acceso al conjunto de datos en las versiones gratuitas. Las características de seguridad más avanzadas están disponibles para los clientes que pagan, como el almacenaje de datos en ciertas jurisdicciones que cuentan con leyes que los protegen. Los lineamientos de cómo asegurar los datos privados guardados y a los que se accede en las nubes, ayuda a entender diversos aspectos de éstas y a decidir en situaciones específicas.

Todo sistema necesita ser asegurado de ciberataques y manipulación. Un desafío común es encontrar una forma de proteger las identidades del conjunto de datos, por ejemplo retirando toda la información que podría identificar a personas a partir de los datos, esto es anonimizándolos. La anonimización correcta es de crucial importancia y algo más difícil de lo que a menudo se asume.

Podemos imaginar que un conjunto de datos de la ubicación con GPS de las Personas que Viven con Albinismo en Uganda requiere de una vigorosa protección La persecución tiene como base la creencia en que ciertas partes del cuerpo de las personas albinas pueden transmitir poderes mágicos, o se presume que están malditas y que traen mala suerte. Un proyecto de perfilamiento espacial que mapease la ubicación exacta de las personas pertenecientes a este grupo vulnerable podría mejorar el alcance y suministro de los servicios que se les presta. Sin embargo, el hackeo de las bases de datos o algún otro acceso ilegal a sus datos personales podría ponerles en riesgo ante las personas que quieren explotarles o hacerles daño.

Podríamos también imaginar que quienes operan un sistema alternativo para enviar alertas por ataques aéreos en Siria, corren el riesgo de que las autoridades los pongan en la mira. Si bien la recolección y el compartir de los datos por parte de este grupo busca prevenir muertes y lesiones, disminuye también el impacto de los ataques aéreos de las autoridades sirias. Los datos de la ubicación de las personas que manejan y contribuyen al sistema deben protegerse del acceso o la exposición.

Otro riesgo es que los actores privados que manejan o cooperan en proyectos movidos por datos se vean tentados a venderlos de ofrecérseles grandes sumas de dinero. Estos compradores serían compañías de publicidad o políticos que buscan dirigir campañas comerciales o políticas a personas específicas.

El sistema Tiko, diseñado por la empresa social Triggerise, premia a los jóvenes sus comportamientos positivos en busca de salud, como visitar farmacias y buscar información en línea. El sistema recoge y guarda, entre otras cosas, información personal sensible y de salud de jóvenes suscriptoras, las que usan la plataforma en busca de guía sobre anticonceptivos y abortos seguros, y rastrea sus visitas a las clínicas locales. De no estar protegidos estos datos, los gobiernos que han criminalizado el aborto podrían potencialmente acceder a ellos y usarlos para llevar a cabo acciones policiales contra mujeres embarazadas y proveedores médicos.

Recolección insegura de datos

Cuando se está planeando recoger nuevos datos, es importante diseñar cuidadosamente el proceso de recolección y pensar bien cómo es que afecta a las personas involucradas. Debiera estar claro desde el principio qué tipos de datos serán recogidos, para qué fin, y que las personas involucradas estén de acuerdo. Por ejemplo, el esfuerzo por mapear a personas con discapacidades en una ciudad específica puede mejorar los servicios. Sin embargo, la base de datos no debiera exponerlas a riesgos tales como los ataques o la estigmatización, que podrían concentrarse en hogares específicos. Además, el establecimiento de esta base de datos debería responder a las necesidades de las personas involucradas, y no al simple deseo de usarlos. Para mayores directrices consúltese el capítulo de Getting Data (Consiguiendo los datos) del Hand-book of the Modern Development Specialist (Manual del especialista moderno del desarrollo) y la OHCHR Guidance para adoptar un Enfoque de los Datos Basado en los Derechos Humanos, que se concentre en la recolección y la desagregación.

Cuando los datos son recogidos personalmente por personas reclutadas para este proceso se requiere una capacitación apropiada. Ellos deben ser capaces de crear un espacio seguro para conseguir el consentimiento informado de las personas cuyos datos están siendo recogidos, y saber cómo evitar los sesgos durante el proceso de recolección.

Incógnitas en los conjuntos de datos existentes

Las iniciativas movidas por datos pueden o bien recoger nueva información, por ejemplo mediante un encuesta de alumnos y profesores en un colegio, o sino usar conjuntos de datos ya existentes a partir de fuentes secundarias, por ejemplo empleando un censo gubernamental o raspando las fuentes de las redes sociales. La protección de datos debe también considerarse cuando planee usar los conjuntos de datos ya existentes, como las imágenes de la tierra para el mapeo espacial. Debe analizar qué tipos de datos quiere usar, y si es necesario usar para ello un conjunto de datos específico. En el caso de los conjuntos de datos provenientes de terceros, es importante saber cómo se obtuvo los que desea usar, si se respetaron los principios de la protección de datos durante la fase de recolección, quién los licenció y quién financió el proceso. De no lograr conseguir estas información deberá considerar cuidadosamente si usarlos o no. Véase el Hand-book del especialista moderno del desarrollo acerca del trabajo con los datos ya existentes.

Beneficios del almacenaje en la nube

Una confiable estrategia de almacenaje en la nube ofrece una mayor seguridad y facilidad de implementación, en comparación con proteger su propio servidor. Si bien un adversario decidido puede siempre hackear computadoras individuales o servidores locales, para ellos es un reto significativamente mayor violar las robustas defensas de proveedores reputados de almacenaje en la nube como Google o Microsoft. Estas compañías aplican extensos recursos de seguridad y tienen un fuerte incentivo empresarial para asegurar la máxima protección a sus usuarios. Al confiar en el almacenaje en la nube, los riesgos comunes como el robo físico, los daños a los dispositivos o el malware pueden mitigarse, puesto que la mayoría de los documentos y datos están guardados de forma segura en la nube. En caso de incidentes es conveniente volver a sincronizar y resumir las operaciones en una computadora nueva o limpiada, con poca o nada de información valiosa accesible localmente.

Haciendo una copia de seguridad de los datos

Tener una copia de respaldo es crucial, independientemente de si los datos están guardados en dispositivos físicos o en la nube. Los primeros corren el riesgo de perder datos debido a diversos incidentes como daños en el hardware, ataques de ransomware o robos. El almacenaje en la nube proporciona una ventaja en este sentido, puesto que elimina la dependencia de dispositivos específicos que pueden quedar comprometidos o perderse. Las soluciones de backup integradas como Time Machine para Macs y File History para Windows, así como los backups automáticos en la nube de iPhones y Androids, ofrecen cierto nivel de protección. Sin embargo, el riesgo del error humano permanece incluso con el almacenaje en la nube, lo que hace que sea aconsejable considerar soluciones adicionales de backup en la nube como Backupify o SpinOne Backup. Los backups de seguridad son aún más importantes en el caso de las organizaciones que usan servidores y dispositivos locales. Se recomienda encriptar los discos duros externos usando contraseñas fuertes, empleando herramientas de encriptación como VeraCrypt o BitLocker, y mantener los dispositivos de respaldo en un lugar distinto que los dispositivos primarios. Guardar una copia en un lugar sumamente seguro, como en una caja fuerte, puede brindar una capa extra de protección en caso de desastres que afecten tanto a las computadoras como a sus copias de respaldo.

Inicio

Preguntas

Hágase estas preguntas si está intentando entender las implicaciones que tiene el no contar con medidas de protección de los datos en su entorno laboral, o si está considerando usarlos como parte de su programación de DRG:

  1. ¿Se han adoptado leyes de protección de los datos en el país o países en cuestión? ¿Estas leyes están alineadas con el derecho internacional de los derechos humanos, e incluyen disposiciones que protejan al derecho a la privacidad?
  2. ¿Cómo cumplirá el uso de los datos en su proyecto con los patrones de protección y privacidad de datos?
  3. ¿Qué tipos de datos planea usar? ¿Son personales o está involucrado algún otro dato sensible?
  4. ¿Qué podría suceder a las personas relacionadas con los datos si el gobierno accediera a éstos?
  5. ¿Qué podría suceder si los datos fuesen vendidos a un actor privado para otros fines de los planeados?
  6. ¿Qué medidas de precaución y mitigación se tomaron para proteger los datos y a las personas relacionadas con ellos?
  7. ¿Cómo se protege a los datos de la manipulación y el acceso y mal uso por parte de terceros?
  8. ¿Contará con suficientes conocimientos integrados durante todo el proyecto para asegurar que los datos sean bien manejados?
  9. Si planea recolectar datos, ¿cuál será su finalidad? ¿Su recolección es necesaria para alcanzar dicho fin?
  10. ¿Cómo se entrena a los recolectores de datos personales? ¿Cómo se genera el consentimiento informado a la hora de recogerse los datos?
  11. De estar creando bases de datos, ¿cómo se garantiza el anonimato de las personas relacionadas con ellos?
  12. ¿Cómo se consiguen y guardan los datos que planea usar? ¿El nivel de protección es apropiado a su sensibilidad?
  13. ¿Quién tiene acceso a los datos? ¿Qué medidas se toman para garantizar que se acceda a ellos para el objetivo planificado?
  14. ¿Qué otras entidades —compañías, socios— procesarán, analizarán, visualizarán y usarán de algún otro modo los datos de su proyecto? ¿Qué medidas se han tomado para protegerlos? ¿Se han establecido acuerdos con ellos para evitar su monetización o mal uso?
  15. ¿De construir una plataforma, ¿cómo protegerá a sus usuarios registrados?
  16. ¿La base de datos, el sistema de su almacenaje o la plataforma son auditables por investigadores independientes?

Inicio

Estudios de caso

People Living with HIV Stigma Index and Implementation Brief

El People Living with HIV Stigma Index (Índice de estigma y discriminación en personas con VIH) es un cuestionario y estrategia de muestreo estandarizados, para recoger datos cruciales acerca de los estigmas intersecados y la discriminación que afectan a las personas que viven con VIH. Éste monitorea el estigma y la discriminación relacionados con el VIH en diversos países y presenta evidencias para su defensa en ellos. Los datos de este proyecto son las experiencias de personas que viven con VIH. El implementation brief (Breviario de implementación) muestra medidas de protección de datos. Quienes viven con VIH se encuentran al centro de todo el proceso, vinculando continuamente a los datos que se recogen acerca de ellos con las personas mismas, comenzando con el diseño de la investigación y pasando a la implementación y al uso de los hallazgos para prestarles apoyo. Los datos se recogen mediante un proceso de entrevistas de par a par, con las personas que viven con VIH de diversos antecedentes sirviendo como entrevistadores capacitados. Se ha diseñado una metodología estándar de implementación, que incluye el establecimiento de un comité de conducción con partes interesadas claves y grupos de población.

La protección de datos del Love Matters Program de RNW Media

El Love Matters Program de RNW Media ofrece plataformas en línea para fomentar la discusión y compartir información sobre el amor, el sexo y las relaciones con personas de 18 a 30 años, en áreas en donde la información sobre la salud y derechos sexuales y reproductivos (SDSR) sigue censurada o es tabú. Los equipos digitales de RNW Media introdujeron enfoques creativos al procesamiento y análisis de los datos, metodologías de Social Listening y técnicas de procesamiento de lenguajes naturales para hacer más inclusivas a las plataformas, crear contenidos focalizados e identificar a influencers y trending topics. Los gobiernos han impuesto restricciones tales como tasas de licencia o registros para influencers en línea, como una forma de monitorear y bloquear contenidos “indeseables”, y RNW Media ha invertido en la seguridad de sus plataformas y los conocimientos de los usuarios para protegerlos del acceso a su información personal sensible. Lea más en la publicación ‘33 Showcases – Digitalisation and Development – Inspiration from Dutch development cooperation’ (33 Vitrinas – Digitalización y desarrollo – Inspiración de la cooperación holandesa para el desarrollo), Ministerio de Asuntos Exteriores de Holanda, 2019, p 12-14.

Informe de Amnistía Internacional

Informe de Amnistía Internacional

Cada día, miles de activistas y organizaciones por la democracia y los derechos humanos dependen de canales de comunicación seguros para conservar la confidencialidad de sus conversaciones en entornos políticos difíciles. Sin semejantes prácticas de seguridad, los mensajes sensibles pueden ser interceptados y usados por las autoridades para poner la mira en los activistas y disolver las protestas. Un ejemplo prominente y detallado de esto tuvo lugar luego de las elecciones de 2010 en Bielorrusia. Tal como se detalla en este informe de Amnistía Internacional, las grabaciones telefónicas y otras comunicaciones no encriptadas fueron interceptadas por el gobierno y usadas en los tribunales contra prominentes políticos y activistas opositores, muchos de los cuales pasaron años en prisión. En 2020, otra oleada de protestas postelectorales en Bielorrusia vio a miles de manifestantes adoptando apps de mensajería seguras y amistosas para con los usuarios —que no eran fácilmente disponibles 10 años antes— para proteger sus comunicaciones sensibles.

Datos del parlamento noruego

Datos del parlamento noruego

El Storting, el parlamento noruego, ha experimentado otro ciberataque que involucró el uso de vulnerabilidades recién descubiertas en Microsoft Exchange. Estas vulnerabilidades, a las que se conoce como ProxyLogon, fueron enfrentadas con parches de seguridad de emergencia lanzados por Microsoft. Los ataques iniciales fueron atribuidos a un grupo de hackeo chino bajo auspicio estatal llamado HAFNIUM, que utilizó las vulnerabilidades para comprometer los servidores, establecer web shells de puerta trasera y conseguir acceso no autorizado a las redes internas de diversas organizaciones. Los repetidos ciberataques al Storting y la participación de diversos grupos de hackers subrayan la importancia de la protección de datos, las actualizaciones de seguridad oportunas y medidas proactivas para mitigar los riesgos informáticos. Las organizaciones deben permanecer vigilantes, mantenerse informadas de las últimas vulnerabilidades y tomar las medidas apropiadas para resguardar sus sistemas y datos.

Girl Effect

Girl Effect, una organización creativa sin fines de lucro, que opera en lugares donde las muchachas están marginadas y son vulnerables, usa los medios y la tecnología móvil para empoderarlas. La organización emplea las herramientas e intervenciones digitales, y reconoce que toda organización que use datos tiene también la responsabilidad de proteger a la gente con la que habla o con la que se conecta en línea. Su ‘Digital safeguarding tips and guidance’ (Consejos y guía de protección digital) brinda una guía a profundidad sobre la implementación de medidas para la protección de datos cuando se trabaja con personas vulnerables. Oxfam, que menciona a Girl Effect como inspiración, ha desarrollado e implementado una Política de datos responsable y comparte muchos recursos en línea de respaldo. La publicación ‘Privacy and data security under GDPR for quantitative impact evaluation’ (Privacidad y seguridad de los datos bajo el RGPD para una evaluación de impacto cuantitativa) brinda detalladas consideraciones acerca de las medidas de protección de los datos que Oxfam implementa, cuando efectúa una evaluación de impacto cuantitativo mediante encuestas y entrevistas digitales y en papel.

Inicio

Referencias

A continuación aparecen los trabajos citados en este recurso.

Recursos adicionales

Inicio

Categories

Brecha digital de género

¿Qué es la brecha digital de género?

La brecha digital de género se refiere a la brecha en el acceso y uso de internet entre mujeres* y hombres, la cual puede perpetuar y exacerbar las desigualdades de género y dejar a las mujeres fuera de un mundo cada vez más digital. No obstante el rápido crecimiento de internet en todo el mundo (95en 2023 el 95% de las personas vive al alcance de una red móvil de celular), sigue siendo 6% menos probable que ellas usen la internet en comparación con los varones, una brecha que en realidad está creciendo en muchos países de bajos y medianos ingresos (LMICs); allí, en 2023, era 12% menos probable que las mujeres tuvieran teléfono móvil que los hombres, y 19% menos probable que realmente tuvieran acceso a internet en un dispositivo móvil.

Dirigente de la sociedad civil en La Paz, Honduras. La brecha digital de género afecta a todos los aspectos de la vida de las mujeres. Crédito de la fotografía: Honduras Local Governance Activity / USAID Honduras.

Aunque podría parecer una brecha relativamente pequeña, dado que los teléfonos móviles y smartphones han superado a las computadoras como la forma principal en que la gente accede a internet, dicha estadística se traduce en 310 millones de menos mujeres en línea en los LMIC que hombres. Sin acceso a internet, las mujeres no pueden participar plenamente en distintos aspectos de la economía, tomar oportunidades educativas y emplear del todo los sistemas de apoyo legal y social.

Pero la brecha digital de género no se limita al acceso a internet; es también la brecha en cómo mujeres y hombres la usan una vez que están en línea. Los estudios muestran que incluso cuando tienen un teléfono móvil, las mujeres, tienden a usarlos con menor frecuencia e intensidad que los varones, en especial los servicios más sofisticados, lo que incluye la búsqueda de información, de empleo o la participación en los espacios cívicos y políticos. Además hay menos contenidos relevantes disponibles para las usuarias de internet, porque las mismas mujeres a menudo son más consumidoras que creadoras de contenido. Es más, ellas enfrentan barreras más grandes al uso de la internet de modos innovadores y recreativos, debido a comunidades en línea hostiles y a la expectativa cultural de que ésta no es para las mujeres, quienes más bien debieran sólo participar en línea en el contexto de sus deberes para con su familia.

La brecha digital de género es también evidente en la exclusión de las mujeres de los papeles de liderazgo o desarrollo en el sector de las tecnologías de información y comunicaciones (TIC). En efecto, la proporción de mujeres que trabajan en este sector ha venido cayendo durante los últimos 20 años. Según un informe de 2023, sólo en los Estados Unidos las
mujeres tienen únicamente alrededor del 23% de los puestos en programación y diseño de software, cayendo de 37% en la década de 1980. Esto contribuye a que el software, las apps y herramientas rara vez reflejen las necesidades singulares que ellas tienen, alienándolas así aún más. Apple, por ejemplo, cuyos empleados en tecnología eran 75.1% varones en 2022, no incluyó un rastreador del ciclo menstrual en su app Health hasta 2019, cinco años después de que fuera lanzada (pero en dicho lapso sí incluyó un rastreador del nivel de sodio y del de alcohol en la sangre).

Enfermeras de hospital proporcionando vacunas en Haití. Cerrar la brecha digital de género es clave para los esfuerzos de salud pública globales. Crédito de la fotografía: Karen Kasmauski / MCSP and Jhpiego

UNA NOTA SOBRE LA TERMINOLOGÍA DE GÉNERO
Toda referencia a “mujeres” (salvo aquellas referentes a estudios externos o encuestas específicos, donde fue fijado por los respectivos autores) es de género inclusivo para niñas, mujeres o cualquier otra persona que se identifique como tal.

Aunque gran parte de este artículo se concentra en las mujeres, las personas de todo género se ven afectadas por la brecha digital de género, y los grupos de géneros marginados que no se identifican como mujeres enfrentan algunos de los mismos retos a la hora de usar la internet, y tienen algunas de las mismas oportunidades para usar la red para enfrentar las barreras offline.

¿Por qué hay una brecha digital de género?

La raíz de la brecha digital de género la constituyen las afianzadas desigualdades tradicionales de género, lo que incluye sesgos, normas socioculturales, falta de asequibilidad y de conocimientos digitales, problemas de seguridad digital y la menor comodidad de las mujeres (en comparación con los varones) al navegar y existir en el mundo digital. Si bien todos estos factores tienen un papel en impedir que ellas alcancen la equidad en su acceso y uso de las tecnologías digitales, la importancia relativa de cada factor depende principalmente de la región y de las circunstancias individuales.

Asequibilidad

En los LMIC en particular, la barrera más grande al acceso es sencilla: la asequibilidad. Aunque el costo del acceso a internet y el de los dispositivos ha venido cayendo, siguen siendo demasiado costosos para muchas personas. Si bien esto es cierto para ambos géneros, las mujeres tienden a enfrentar barreras secundarias que les impiden tener acceso, como no ser financieramente independientes, o ser pasadas por alto por los miembros de su familia a favor de un pariente masculino. E incluso cuando tienen acceso a dispositivos, éstos a menudo están registrados a nombre de un pariente masculino. Las consecuencias que esto tiene van desde reforzar la idea de que la internet no es un lugar para mujeres, a prevenir que accedan a los sistemas de apoyo social. En Ruanda, una evaluación de la fase piloto del Digital Ambassador Programme halló que el costo de los paquetes de datos y/o el acceso a los dispositivos era prohibitivamente costoso para un gran número de posibles usuarias, en particular en las áreas rurales.

Educación

La educación es otra gran barrera para las mujeres de todo el mundo. Según datos de la Web Foundation, para 2015, en África y Asia era seis veces más probable que las mujeres que tienen algo de educación secundaria o que la han completado estuvieran en línea, que aquellas con primaria o menos.

Es más, las habilidades digitales también son requeridas para participar significativamente en Internet. Aunque la educación digital varía ampliamente de un país al otro (e incluso dentro de ellos), según un informe de UNICEF e ITU, en general sigue siendo menos probable que las niñas acudan al colegio, y las que sí lo hacen tienden a tener una “menor confianza en sí mismas e interés” por el estudio de temas de ciencias, tecnología, ingeniería y matemática (STEM), temas a los cuales además se percibe a menudo como ‘propios de varones’, razón por la cual resultan menos atractivos para mujeres y niñas. Aunque las materias STEM no requieren estrictamente el uso de tecnologías digitales, ellas pueden ayudar a exponer a las niñas a las TIC y ayudarles a construir habilidades que les sirvan para ganar confianza en su uso de tecnologías nuevas y emergentes. Es más, estudiar estas materias es el primer paso en el camino hacia una carrera en el campo de las TIC, lo que es un paso necesario para enfrentar los sesgos inherentes a las tecnologías creadas y distribuidas mayormente por hombres. Sin aliento y sin confianza en sus habilidades digitales, las mujeres podrían mantenerse alejadas o evitar oportunidades que son percibidas como tecnológicamente avanzadas, aun cuando en realidad no requieren un alto nivel de conocimientos digitales.

Normas sociales

Las normas sociales tienen un impacto desmedido sobre muchos aspectos de la brecha digital de género, porque también se las puede usar como un factor propulsor con respecto a otras barreras. Estas normas se ven distintas en comunidades diferentes; allí donde las mujeres son cuidadoras todo el día no suelen tener tiempo que pasar en línea, en tanto que en otras situaciones se las desalienta de seguir carreras en STEM. En otros casos las barreras son más estrictamente culturales. Por ejemplo, un informe de la OCDE indicó que en la India y Egipto, alrededor de la quinta parte de las mujeres creía que Internet “no era un lugar apropiado para ellas” por razones culturales.

Las normas sociales en línea también tienen un papel en prevenir que las mujeres, en particular las de los LMIC, interactúen plenamente con la internet. Gran parte del mercado digital está dominado por el inglés y otras lenguas occidentales, lo que hace que las mujeres tengan menos oportunidades para aprender debido a las desigualdades educativas. Aún más, muchas comunidades en línea, sobre todo aquellas dominadas tradicionalmente por varones, como las de juegos, no son amistosas con ellas y a menudo se llega incluso al punto en que su seguridad queda comprometida.

Violencia en línea

La escasez de contenidos que sean relevantes y empoderadores para las mujeres, así como otras barreras que impiden que participen en línea libremente y con seguridad, son también aspectos fundamentales de la brecha digital de género. E incluso cuando las mujeres tienen acceso a entornos en línea corren un riesgo desproporcionado de sufrir violencia basada en el género (GBV): acoso digital, ciberstalking, doxxing y la distribución no consensual de imágenes (v.g., “porno venganza”). Las minorías de género son también blancos de la GBV. Los activistas trans, por ejemplo, han experimentado una creciente vulnerabilidad en los espacios digitales, en particular a medida que iban haciéndose más visibles y se hacían escuchar. El ciberacoso de las mujeres es tan extremo que el alto comisionado de la ONU para los derechos humanos ha advertido que “de continuar las actuales tendencias, en lugar de empoderar a las mujeres, los espacios en línea podrían en realidad ampliar la discriminación y la violencia sexual y basada en el género”.

Esta barrera es particularmente nociva para la democracia, puesto que la internet ha pasado a ser un espacio clave para la discusión y el activismo político. La investigación efectuada por el National Democratic Institute demostró que las muchachas y niñas a todo nivel de participación política y en todos los sectores democráticos, desde los medios de comunicación hasta los cargos electos, se ven afectadas por el “‘chilling effect’ que saca de línea a las mujeres políticamente activas, y que en algunos casos las saca por completo del ámbito político”. Aún más, son las mujeres que se encuentran bajo el ojo público —incluso las que están en política y tienen puestos de liderazgo— las que con mayor frecuencia se ven afectadas por este abuso, y en muchas culturas se considera que este es “el costo de hacer negocios” para aquellas que toman parte en la conversación democrática y simplemente se le acepta como tal.

“…de continuar las tendencias, en lugar de empoderar a las mujeres, los espacios en línea podrían en realidad ampliar la discriminación y la violencia sexual y basada en el género”.

Alto Comisionado de las Naciones Unidas para los Derechos Humanos

Inicio

¿De qué modo es la brecha digital de género relevante en el espacio cívico y para la democracia?

La ONU reconoce la importancia de la inclusión y participación de las mujeres en la sociedad digital. El quinto objetivo de desarrollo sostenible (ODS) pide “mejorar el uso de tecnología habilitante, en particular la de información y comunicaciones, para promover el empoderamiento de las mujeres”. Es más, la inclusión digital y el empoderamiento técnico de las mujeres son relevantes para alcanzar una educación de calidad, crear trabajos y un crecimiento económico decentes, reducir la desigualdad y levantar instituciones pacíficas e inclusivas. Si bien las tecnologías digitales ofrecen oportunidades sin paralelo en áreas que van desde el desarrollo económico a la mejora de la salud, la educación, el desarrollo cultural y la participación política, las brechas en su acceso y uso, así como los intensificados problemas de seguridad exacerban las desigualdades de género y estorban la capacidad de las mujeres para acceder a los recursos e información que son claves para mejorar su vida y para el bienestar de sus comunidades.

Es más, las formas en que las tecnologías han sido diseñadas y se las emplea, y
el modo en que los datos se recogen y usan, tienen un impacto distinto sobre hombres y mujeres, a menudo debido a las disparidades ya existentes. Las consideraciones de género debieran estar al centro de la toma de decisiones y del planeamiento en el espacio de la democracia, los derechos y la gobernanza, ya sea al usar tecnologías para diseñar sistemas de inteligencia artificial e implementar marcos de protección de datos, o simplemente para los usos cotidianos de los medios sociales.

Estudiantes en Zanzíbar. Sin acceso a la internet, las mujeres y niñas no pueden participar plenamente en las economías, aprovechar las oportunidades educativas o acceder a los sistemas legales. Crédito de la fotografía: Morgana Wingard / USAID.

Las iniciativas que ignoran las disparidades de género en el acceso a la Internet y la propiedad y uso de teléfonos celulares y otros dispositivos exacerbarán las desigualdades de género ya existentes, en especial en las poblaciones más vulnerables y marginadas. En el contexto de la pandemia de Covid-19 y de la creciente GBV durante la cuarentena, la tecnología brindó algunos recursos con que enfrentarla, pero también creó nuevas oportunidades para que surgieran formas en que explotar a las mujeres y enfriar el discurso en línea. Millones de mujeres y de personas no binarias que enfrentan barreras al acceso a internet y los dispositivos en línea se quedaron con vías limitadas de socorro, ya fuera mediante servicios de mensajería instantáneos, llamadas a líneas directas para abusos, o apps discretas que proporcionaban un apoyo disfrazado e información a sobrevivientes en caso de vigilancia por parte de los abusadores. Es más, el paso a una mayor dependencia de la tecnología en el trabajo, el colegio, la atención médica y otros aspectos básicos de la vida limitó todavía más la participación de estas mujeres en dichos aspectos de la sociedad, y expuso a las que eran activas en línea a más GBV en línea.

Lo más importante es que las iniciativas en el espacio cívico deben reconocer la agencia y el conocimiento de las mujeres, y ser inclusivas de los géneros desde la etapa de diseño misma. Las mujeres deben participar como codiseñadoras de programas y estar involucradas como miembros competentes de la sociedad, con igual potencial para diseñar soluciones y no ser percibidas como víctimas pasivas.

Inicio

Oportunidades

Hay una serie de distintas áreas que abordar que podrían tener un impacto positivo en el cierre de la brecha digital de género. Lea a continuación cómo reflexionar de modo más eficaz y seguro acerca de ciertas áreas que su trabajo podría tocar (o que podría incluir).

Ampliando las oportunidades laborales y educativas

En 2018, la TIU proyectó que el 90% de los futuros empleos requerirán habilidades de TIC, y según el Foro Económico Mundial, los empleadores afirman cada vez más que las habilidades y conocimientos digitales serán necesarios para los futuros empleados. Dado que los empleos analógicos tradicionales en que las mujeres se encuentran sobrerrepresentadas (como en los sectores manufacturero, de servicios y agrícola) vienen siendo reemplazados por la automatización, es cada vez más vital que nunca que ellas aprendan habilidades de TIC para que puedan competir por empleos. Si bien el alfabetismo digital está pasando a ser un requisito en muchos sectores, otras nuevas y más flexibles oportunidades laborales también están haciéndose comunes, y éstas vienen eliminando las barreras tradicionales al ingreso como la edad, la experiencia o la ubicación. Las plataformas digitales pueden hacer posible que las mujeres de áreas rurales se conecten con las ciudades, en donde pueden vender bienes o servicios con mayor facilidad. Y los empleos contratados de medio tiempo de la “gig economy” (como compartir viajes en auto, la entrega de alimentos y otras plataformas de freelance) permiten a las mujeres tener horarios más flexibles, los que a menudo son necesarios debido a las responsabilidades para con su familia.

La internet también amplía las oportunidades para la educación de niñas y mujeres. Las oportunidades educativas en línea, como aquellas para refugiados, vienen alcanzando más y más estudiantes, niñas inclusive. El aprendizaje en línea asimismo da otra oportunidad de aprender a quienes perdieron sus oportunidades educativas cuando niñas, a su propio ritmo y con flexibilidad en términos del tiempo y lugar, lo que podría ser necesario dadas las responsabilidades de las mujeres, y que podría permitir que su participación en la clase sea más proporcional a la de los varones.

Creciente acceso a los servicios financieros

La mayoría de la población no bancarizada del mundo son mujeres. Ellas tienen más probabilidades que los varones de carecer de un historial crediticio o de la movilidad para ir al banco. Así, las tecnologías financieras pueden desempeñar un gran papel igualador, no sólo en términos del acceso a las herramientas sino también de cómo se podrían diseñar los productos y servicios financieros, para que respondan a las necesidades femeninas. Las oportunidades para incrementar la inclusión financiera femenina son prometedoras en la región MENA, por ejemplo, en donde el 54% de los hombres pero solo el 42% de las mujeres tienen cuentas bancarias, y donde hasta 14 millones de adultos no bancarizados de la región envían o reciben remesas domésticas usando dinero en efectivo o un servicio over-the-counter. Varios gobiernos han experimentado con la tecnología móvil para los pagos de gobierno a persona (G2P). Los estudios muestran que esto ha reducido el tiempo requerido para acceder a los pagos, pero el nuevo método no beneficia a todos por igual. Cuando se diseñan programas como éste es necesario tener en mente la brecha digital de género y cómo es que la posición singular de las mujeres habrá de tener un impacto sobre la efectividad de la iniciativa.

Cambio de política para las protecciones legales

Son pocas las protecciones legales de las mujeres y personas de género diverso que buscan justicia por el abuso al que enfrentan en línea. Según un informe presentado en 2015 por la Comisión de Banda Ancha de la ONU, solamente una de cada cinco mujeres vive en un país en donde es probable que se castiguen los abusos cometidos en línea. En muchos otros, los perpetradores de la violencia en línea actúan con impunidad puesto que las leyes no han sido actualizadas para el mundo digital, ni siquiera cuando el acoso en línea tiene como resultado violencia en el mundo real. Por ejemplo, en la República Democrática del Congo (RDC) no hay ninguna ley que proteja específicamente a las mujeres del acoso en línea, y las que han denunciado delitos afines ante la policía corren el riesgo de ser procesadas por “arruinar la reputación del atacante.” Y cuando se aprueban ciberleyes, no siempre son eficaces. A veces incluso tienen como resultado el castigo de las mujeres víctimas: en Uganda, mujeres han sido arrestadas bajo la ley antipornografía luego de que sus exparejas publicaran en línea fotos de “pornovenganza” (fotografías de ellas desnudas, publicadas sin su consentimiento). Dado que muchas de estas leyes son nuevas y que las tecnologías están cambiando constantemente, es necesario que abogados y defensores entiendan las leyes existentes así como los vacíos en la legislación, para así proponer políticas y enmiendas para hacer posible que las mujeres realmente estén protegidas y a salvo de los abusos en línea.

La Ley de Servicios Digitales (DSA) de la Unión Europea, que fuera adoptada en 2022, es un hito en la legislación que regula las plataformas. Ella podría obligar a las plataformas a que evalúen exhaustivamente las amenazas en línea a las mujeres, y a que implementen medidas abarcadoras que aborden dichas amenazas. Sin embargo, la DSA acaba de ser introducida y será la forma en que se la implemente, la que determine si realmente habrá de tener un impacto. Además ella está limitada a la UE, y si bien es posible que otros países y regiones la usen como modelo, necesitará ser adaptada localmente.

Hacer que la internet sea segura para las mujeres necesita de un enfoque de múltiples partes interesadas. Los gobiernos deberían trabajar en colaboración con el sector privado y las organizaciones sin fines de lucro. Las tecnológicas tienen una responsabilidad para con el público de dar soluciones y apoyar a las mujeres que son atacadas en sus plataformas o al usar sus tecnologías. Esto no solo es algo necesario por razones éticas, sino también porque como las mujeres conforman un público sumamente significativo de estas herramientas, hay una demanda de solución por parte de las consumidoras. Muchas de las intervenciones creadas para enfrentar este problema fueron creadas por compañías privadas. Por ejemplo, Block Party es una herramienta creada por una compañía privada para dar a los usuarios el control de bloquear el acoso en Twitter. Fue exitosa financieramente hasta que Twitter elevó drásticamente el costo de acceso a su API y obligó a Block Party a cerrar. Actualmente las plataformas están quedándose cortas, no obstante los incentivos financieros y económicos que hay para proteger a las mujeres en línea.

Aunque la mayoría de las plataformas prohíben la violencia en línea en sus términos y condiciones, rara vez hay un castigo real o una solución efectiva para quienes han sido atacadas. Lo mejor que se puede hacer es que se retiren las publicaciones infractoras, lo cual rara vez se hace de modo oportuno. La situación es aún peor en el caso de las publicaciones que no son en inglés, a las cuales a menudo se malinterpreta, ignorándose la jerga ofensiva y censurándose frases comunes. Es más, el sistema de reporte está estructurado de modo tal que corresponde a las personas atacadas revisar los mensajes violentos y traumatizantes, y convencer a la plataforma de que los retire.

Las organizaciones sin fines de lucro se encuentran en una posición única para enfrentar el abuso de género en línea porque pueden —y lo han hecho— moverse con mayor rapidez que los gobiernos o compañías tecnológicas para hacer cambios y promoverlos. Ella brindan soluciones, efectúan investigaciones acerca de la amenaza, facilitan la capacitación en seguridad y preparan recomendaciones para las tecnológicas y los gobiernos. Además tienen un papel clave en facilitar las comunicaciones entre todas las partes interesadas.

Educación en seguridad digital y capacitación en alfabetismo digital

La educación en seguridad digital puede ayudar a las mujeres (sobre todo a las que se encuentran en mayor riesgo, como las defensoras de los derechos humanos y periodistas) a estar seguras en línea y alcanzar un conocimiento crítico con el que sobrevivir y florecer política, social y económicamente en un mundo cada vez más digital. Sin embargo, no hay suficientes capacitadores en seguridad digital que entiendan el contexto y los retos que las mujeres en riesgo enfrentan. Hay pocos recursos en seguridad digital que brinden una guía contextualizada acerca de las amenazas singulares que ellas enfrentan, o que incluyan soluciones utilizables para los problemas que necesitan resolver. Es más, las presiones sociales y culturales podrían impedir que las mujeres asistan a las capacitaciones en seguridad digital. Ellas pueden y serán creadoras de contenidos y construirán recursos para sí mismas y otros, pero primero se les debe dar la oportunidad de aprender acerca de la seguridad y protección digital como parte de un currículo en alfabetismo digital. Los hombres y los niños también necesitan capacitación con respecto al acoso en línea y la educación en seguridad digital.

Conectando y haciendo campaña sobre las cuestiones que importan

Las plataformas digitales permiten a las mujeres conectarse entre ellas, construir redes y organizar asuntos de justicia. Por ejemplo, el movimiento #MeToo en contra del mal comportamiento sexual en la industria de los medios de comunicación, que se ha convertido en un movimiento global, hizo posible que una multitud de personas tomara parte en un activismo antes limitado a un tiempo y lugar específicos. Lea más acerca del activismo digital en el manual de medios sociales.

Además de hacer campaña por los derechos de las mujeres, la internet ofrece una forma de bajo costo para que ellas se involucren en la conversación democrática más amplia. Las mujeres pueden postular a cargos, escribir para periódicos y expresar su opinión política con tan solo un teléfono y una conexión de internet. Esta es una barrera mucho más baja de lo que era en el pasado, cuando llegar a un gran público necesitaba de una gran inversión financiera (como el pago de avisos en TV), y las mujeres tenían mucho menos control sobre el mensaje que estaba expresándose (por ejemplo, la cobertura que los medios daban a las políticas mujeres se concentraba de modo desproporcionado en su aspecto físico). Es más, la internet es un recurso donde aprender habilidades políticas. Las mujeres con competencia informática pueden encontrar cursos, blogs, comunidades y herramientas en línea con los cuales apoyar todo tipo de trabajo democrático.

Inicio

Riesgos

Jóvenes en un centro de inclusión digital en la Amazonía peruana. Crédito fotográfico: Jack Gordon / USAID / Digital Development Communications.

Son muchos los factores que amenazan con ampliar la brecha digital de género e impedir que la tecnología se use para ampliar la desigualdad de género. Lea a continuación cómo aprender acerca de algunos de estos elementos, así como de qué modos mitigar las consecuencias negativas que presentan para la brecha digital de género.

Considerar la brecha digital de género un “problema de las mujeres”

La brecha digital de género es una cuestión transversal holista que afecta a países, sociedades, comunidades y familias, y no solo un “problema de mujeres”. Cuando la gente desestima dicha brecha como un problema de nicho, se limita los recursos dedicados al problema y conduce a soluciones ineficaces que no abordan el problema en toda su amplitud. Cerrar la brecha de género en el acceso, uso y desarrollo de tecnología exige el compromiso de las sociedades como un conjunto. Para marcar una diferencia sostenida, los enfoques de cómo cerrar la brecha deben ser holistas, tomar en cuenta la dinámica específica al contexto del poder y el género, e incluir la participación activa de los hombres en las comunidades relevantes.

Es más, la brecha digital de género no debiera entenderse como algo restringido al espacio de la tecnología, sino más bien como un problema social, político, y económico con implicaciones de gran alcance, lo que incluye consecuencias negativas para hombres y niños.

Los desastres y las crisis intensifican la brecha educativa en las mujeres

Las oportunidades educativas de mujeres y niñas son más tenues durante las crisis. Las crecientes responsabilidades domésticas y de cuidado, el paso hacia la generación de ingresos, la presión para contraer matrimonio y las brechas en las habilidades de competencia informática significan que muchas niñas dejarán de recibir una educación incluso allí en donde se cuenta con acceso a internet y oportunidades de aprender a distancia. En Ghana, por ejemplo, el 16% de los niños adolescentes tienen habilidades digitales en comparación con apenas 7% de las niñas. De igual modo las cuarentenas y cierres de colegios durante la pandemia de Covid-19 tuvieron un efecto desproporcionado sobre las niñas, incrementando así la brecha de género en la educación, en particular en los contextos más vulnerables. Según la UNESCO, más de 111 millones de niñas que fueron obligadas a dejar el colegio en marzo de 2020, viven en países en donde las desigualdades de género eran ya de por sí las más altas. En Mali, Níger y Sudán del Sur, países con algunas de las tasas más bajas de matrícula y compleción escolar entre las niñas, las cuarentenas dejaron a más de 4 millones de ellas fuera de los colegios.

La violencia en línea incrementa la autocensura y enfría la participación política

La GBV en línea ha resultado ser una herramienta particularmente poderosa para minar a las defensoras de los derechos humanos, dirigentes de la sociedad civil y periodistas mujeres o que se identifican como tales, lo que llevó a la autocensura, debilitó el liderazgo y compromiso políticos de las mujeres, y restringió su autoexpresión e innovación. Según un informe, de la Unidad de Inteligencia de The Economist (EIU) de 2021, el 85% de las mujeres ha sido blanco de la violencia en línea o ha sido testigo de ella, y el 50% siente que internet no es un lugar seguro en donde expresar sus ideas y opiniones. Esta violencia es particularmente dañina para quienes tienen identidades intersecadas marginadas. De no abordarse estas tendencias, es posible que jamás sea posible cerrar la brecha digital, puesto que muchas mujeres que estén en línea serán sacadas de ella debido a las amenazas que allí enfrentan. Periodistas, activistas, políticas y otras figuras públicas femeninas son blanco de amenazas de violencia sexual y otras tácticas de intimidación. La violencia en línea contra periodistas lleva a la autocensura periodística, afectando así la calidad del entorno informativo y del debate democrático.

La violencia en línea enfría la participación femenina en el espacio digital a todo nivel. Además de su impacto en las dirigentes políticas, el acoso en línea afecta el modo en que las mujeres y niñas que no son víctimas directas intervienen en línea. Habiendo visto el abuso que sus pares enfrentan en línea, algunas niñas quedan intimidadas y no producen contenidos. Esta forma de violencia también se usa como una herramienta con la cual castigar y desalentar a las mujeres que no se adecúan a los papeles tradicionales de género.

Las soluciones incluyen la educación (capacitar a las mujeres en seguridad digital para que se sientan cómodas usando la tecnología, y enseñando a hombres y niños los comportamientos apropiados en entornos en línea), cambios de política (promover la adopción de políticas que enfrenten el acoso y la protección de los derechos de las mujeres en línea) y el cambio tecnológico (enfrentar las barreras a la participación femenina en la creación de tecnología, para así disminuir las disparidades de género en el campo y ayudar a asegurar que las herramientas y el software disponibles atiendan a sus necesidades).

Los sistemas de inteligencia artificial exacerban los sesgos

La participación desproporcionada de las mujeres en el liderazgo del desarrollo, programación y diseño de los sistemas de IA y de aprendizaje automático lleva a reforzar las desigualdades de género a través de la replicación de estereotipos y del mantenimiendo de normas sociales dañinas. Por ejemplo, los grupos de ingenieros predominantemente masculinos han diseñado asistentes digitales como Siri de Apple y Alexa de Amazon, que usan voces que suenan como mujeres, reforzando sesgos de género arraigados, como que las mujeres son más solícitas, solidarias, cordiales y hasta sumisas.

En 2019, la UNESCO publicó “I’d blush if I could”, (“Me sonrojaría si pudiese”), un research paper cuyo título tiene como base la respuesta que Siri diera cuando un usuario humano se dirigió a “ella” de modo extremadamente ofensivo. El paper señalaba que si bien el sistema fue actualizado en abril de 2019 para que respondiera a los insultos de modo más monótono (“No sé cómo responder a eso”), “la docilidad de la asistente ante el abuso de género quedó sin cambios desde el amplio lanzamiento de la tecnología en 2011”. La UNESCO sugirió que al hacer que las voces sonaran como de mujeres por defecto, las compañías tecnológicas estaban precondicionando a los usuarios a que confiaran en percepciones anticuadas y nocivas de ellas como sumisas, y no lograron incluir las salvaguardas debidas en contra de un lenguaje de género abusivo.

Aún más, los sistemas de aprendizaje automático dependen de datos que reflejan sesgos de género mayores. Un grupo de investigadores de Microsoft Research y Boston University entrenaron un algoritmo de aprendizaje automático con artículos de Google News, y luego le pidieron que completara esta analogía: “Hombre es a Programador de Computadora como Mujer es a X”. La respuesta fue “Ama de casa”, reflejando así el retrato estereotipado y el déficit de voces confiables de mujeres en las noticias. (Lea más acerca de los sesgos en los sistemas de inteligencia artificial en la sección Inteligencia artificial y aprendizaje automático en Sesgos en la IA y el AA).

Además de prevenir el reforzamiento de los estereotipos de género, incrementar su participación en el liderazgo y desarrollo tecnológico agrega un lente de género al campo y mejora las formas en que las nuevas tecnologías pueden usarse para mejorar la vida de las mujeres. Por ejemplo, inicialmente el seguimiento de la regla quedó fuera de las aplicaciones de salud, y las compañías posteriormente fueron lentas en abordar las preocupaciones de los usuarios de los EE.UU. luego de que Roe v. Wade fuera repelido, y que la privacidad de los datos de rastreo de la regla pasaran a ser un problema en los EE.UU.

Las nuevas tecnologías permiten una mayor vigilancia de las mujeres

La vigilancia es motivo de especial preocupación para quienes trabajan en espacios cerrados y que se cierran más, cuyos gobiernos los ven como una amenaza debido a sus actividades promoviendo los derechos humanos y la democracia. Las investigaciones llevadas a cabo por Privacy International muestran que hay algo singular en la vigilancia que enfrentan las mujeres y quienes no se conforman con el género. El uso omnipresente de la tecnología ha exacerbado las preocupaciones de privacidad y la vigilancia de las mujeres, desde las implicaciones de privacidad de los datos relacionados con las apps de rastreo menstrual, que pueden recoger datos sin un debido consentimiento informado, hasta la capacidad de ellas para acceder en privado a información en línea acerca de salud sexual y reproductiva, o el stalkerware y los rastreadores de GPS instalados en los celulares y dispositivos de la internet de las cosas (IdC) por sus parejas.

Por ejemplo, los estudios llevados a cabo por Citizen Lab resaltan la alarmante gama de software comercial que existe con la finalidad explícita de rastrear encubiertamente las actividades de otro dispositivo móvil, en modo remoto y en tiempo real. Esto podría incluir el monitoreo de los mensajes de texto de otra persona, sus registros de llamadas, historial de búsqueda, calendarios personales, cuentas de correo electrónico y/o fotografías. Es necesario enseñar seguridad digital y los riesgos de la recolección de datos en línea, de modo tal que las mujeres se puedan proteger en línea, dar un consentimiento informado a la recolección de datos y sentirse cómodas usando sus dispositivos.

Mayor desempleo tecnológico

Las pérdidas de empleo provocadas por el reemplazo de trabajadores humanos con sistemas automatizados conduce al “desempleo tecnológico”, el cual afecta desproporcionadamente a las mujeres, los pobres y otros grupos vulnerables, salvo que se les vuelva a calificar y se les brinde las protecciones adecuadas. La automatización asimismo necesita tener trabajadores calificados que puedan operar, supervisar y/o mantener sistemas automatizados, eventualmente creando así trabajo para una sección más pequeña de la población. Pero el impacto inmediato de esta transformación laboral podría ser nociva para la gente y las comunidades que no cuentan con redes de seguridad social u oportunidades para encontrar otro empleo.

Inicio

Preguntas

Tenga en cuenta estas preguntas cuando desarrolle o evalúe una propuesta que trabaje con mujeres o niñas (lo que en general es básicamente todas ellas):

  1. ¿Hubo mujeres involucradas en el diseño de su proyecto?
  2. ¿Ha considerado los impactos de género y las consecuencias involuntarias que tendría la adopción de una tecnología particular en su trabajo?
  3. ¿De qué modos es probable que las diferencias en el acceso y el uso de la tecnología afecten los resultados de su proyecto?
  4. ¿Está empleando tecnologías que podrían reforzar estereotipos de género nocivos, o que no satisfagan las necesidades de sus participantes mujeres?
  5. ¿Están las mujeres expuestas a problemas adicionales de seguridad (en comparación con los varones) con respecto al uso de las herramientas y tecnologías adoptadas en su proyecto?
  6. ¿Ha tenido en cuenta las brechas en los datos desagregados por sexo o género del conjunto de datos, durante el diseño y la implementación de su proyecto? ¿Cómo podrían cubrirse estas brechas con investigaciones adicionales primarias o secundarias?
  7. ¿Cómo podría su proyecto involucrar significativamente a hombres y niños para enfrentar la brecha digital de género?
  8. ¿Cómo podría su organización ayudar a mitigar y eventualmente cerrar la brecha digital de género?

Inicio

Estudios de caso

Hay muchos ejemplos de programas que están interactuando con las mujeres para tener un efecto positivo sobre la brecha digital de género. A continuación averigüe más de algunos de ellos.

El WomenConnect Challenge de USAID

En 2018, USAID lanzó el WomenConnect Challenge para hacer posible que las mujeres accedieran a tecnologías digitales y las usaran. La primera convocatoria de soluciones recibió más de 530 ideas de 89 países, y USAID seleccionó a nueve organizaciones para que recibieran premios de $100,000. En la República de Mozambique, la institución financiera de desarrollo GAPI redujo las barreras al acceso de las mujeres al proporcionar navegación offline de internet, opciones de rent-to-own, y capacitación personalizada en microemprendimientos para mujeres por región. AFCHIX, otro premiado en la primera ronda, creó oportunidades para que las mujeres rurales de Kenia, Namibia, Senegal y Marruecos sean ingenieras de redes y construyan sus propias redes o servicios de internet comunitarios. AFCHIX ganó otro premio en la tercera ronda de financiamiento, al que la organización usó para integrar el aprendizaje de habilidades digitales en las redes comunitarias, facilitando así el crecimiento orgánico de las mujeres empleando dichas habilidades para generar oportunidades socioeconómicas. El programa empresarial y de empoderamiento ayuda a mujeres a que funden sus propias compañías, suministren importantes servicios a la comunidad, y posiciona a dichas personas como modelos a seguir.

Safe Sisters: empoderando a las mujeres para que se hagan cargo de la seguridad digital

En 2017, Internews y DefendDefenders dirigieron el programa Safe Sisters en África oriental, para empoderar a las mujeres para que se protegieran de la GBV en línea. Safe Sisters es un programa de capacitación sobre seguridad digital para capacitadores, que da a las defensoras de los derechos humanos y periodistas mujeres para quienes la seguridad digital es algo nuevo, técnicas y herramientas con las cuales navegar los espacios en línea con seguridad, asumir riesgos informados y tomar el control de su vida en un mundo cada vez más digital. El programa fue creado y es manejado íntegramente por mujeres. En él los participantes aprenden habilidades de seguridad digital y adquieren experiencia práctica capacitando a sus propias comunidades en riesgo.

Al construir el modelo de Safe Sisters, Internews probó que de tener la oportunidad, las mujeres se lanzarán a mejorar su comprensión de la seguridad digital, utilizarán su capacitación para generar nuevas oportunidades laborales, y compartirán sus habilidades y conocimientos en su comunidad. Las mujeres pueden también crear recursos de seguridad digital de contextos y lenguaje específicos, y pelear por políticas que protejan sus derechos en línea y disuadan los abusos. Hay fuertes evidencias del impacto duradero del programa Safe Sisters: dos años después de su lanzamiento, el 80% de la cohorte piloto de 13 mujeres estaba activamente involucradas en seguridad digital; 10 habían encontrado nuevas oportunidades profesionales gracias a su participación y cuatro habían cambiado de carreras para proseguir la seguridad digital profesionalmente.

Internet Saathi

En 2015, Google India y Tata Trusts lanzaron Internet Saathi, un programa diseñado para equipar a las mujeres (a quienes se conoce como Saathis) en aldeas de todo el país con las habilidades básicas de internet y brindarles dispositivos con Internet. Las Saathis entonces capacitan a otras mujeres en competencias digitales siguiendo el modelo de capacita-al-capacitador. Para abril de 2019 había más de 81,500 Internet Saathis, quienes ayudaban a más de 28 millones de mujeres a que aprendieran acerca de internet en 289,000 aldeas. Lea más sobre las saathis aquí.

Girls in Tech

Girls in Tech es una organización sin fines de lucro con secciones alrededor del mundo. Su meta es cerrar la brecha de género en el campo del desarrollo de tecnología. La organización prepara eventos para niñas que incluyen paneles y hackathons, los cuales sirven el doble propósito de alentarlas a que participen en el desarrollo de tecnología y a resolver problemas locales y globales, como la crisis medioambiental y las cuestiones de accesibilidad para personas con discapacidades. Girls in Tech da a las niñas la oportunidad de involucrarse en el diseño de tecnología mediante oportunidades de aprendizaje como bootcamps y mentorías. La organización organiza una competencia promocional de startup llamada AMPLIFY, que da a las niñas los recursos y el financiamiento para hacer que sus diseños se hagan realidad.

Women in Tech

Women in Tech es otra organización sin fines de lucro y una red con secciones alrededor del mundo que apoya la Diversidad, la Igualdad y la Inclusión en los campos de Ciencias, Tecnología, Ingeniería, Artes y Matemática. Hace esto concentrándose en Educación, capacitando a las mujeres para carreras en tecnología, lo que incluye pasantías, sesiones de conciencia tecnológica y becas; Negocios, lo que incluye programas de mentoría para mujeres empresarias, y campamentos de incubación y aceleración; Inclusión Social, asegurándose de que los programas de competencia digital estén llegando a grupos marginados y comunidades subprivilegiadas; y Promoción, incrementando la conciencia del problema de la brecha de género digital y cómo se la puede resolver.

EQUALS Global Partnership

La Unión Internacional de Telecomunicaciones (UIT), GSMA, el Centro de Comercio Internacional, la Universidad de Naciones Unidas y ONU Mujeres fundaron EQUALS Global Partnership para enfrentar la brecha de género digital mediante la investigación, políticas y programas. EQUALS abre el camino a la igualdad de género en cuatro áreas centrales: Acceso, Habilidades, Liderazgo e Investigación. La sociedad cuenta con una serie de programas, algunos de ellos en colaboración con otras organizaciones para así focalizarse específicamente en estas áreas de problemas. Fairness AI, un programa de investigación, examina los sesgos en la IA, en tanto que los Digital Literacy Pilot Programmes, que son el resultado de la colaboración entre el Banco Mundial, GSMA y la EQUALS Access Coalition, son programas enfocados en enseñar competencia digital a las mujeres de Ruanda, Uganda y Nigeria. Se puede encontrar más información acerca de los proyectos de EQUALS Global Partnership en esta página web.

Campamentos y talleres regionales de programación

Muchas iniciativas para enfrentar la brecha digital de género utilizan capacitaciones para empoderar a niñas y mujeres para que se sientan confiadas en las industrias tecnológicas, pues el simple acceso a la tecnología no es sino uno de los factores que contribuyen a la brecha. Muchos de estos programas educativos son localizados puesto que las obligaciones culturales a menudo tienen un papel clave, y porque la tecnología es más intimidante cuando se la enseña en una lengua no nativa. Un ejemplo de esto es la African Girls Can Code Initiative (AGCCI), creada por ONU Mujeres, la Comisión de la Unión Africana (AUC) y la UIT. La Iniciativa entrena a mujeres y niñas entre los 17 y 25 años en habilidades de programación e información, comunicaciones y tecnología (TIC) a fin de alentarlas a que prosigan una educación o carrera en estos campos. AGCCI trabaja en cerrar la brecha de género digital, tanto incrementando los conocimientos que mujeres y niñas tienen del campo como incorporándolas a éstos, abordando problemas de las normas.

Programas de mentoría

Muchas intervenciones para alentar la participación femenina en la tecnología también usan programas de mentoría. Algunos usan una mentoría directa entre pares, en tanto que otros conectan a las mujeres con modelos a seguir a través de entrevistas o conferencias. Emplear mujeres exitosas es una solución eficaz porque para las mujeres, el éxito en el campo tecnológico requiere de algo más que simples habilidades técnicas. Las mujeres necesitan ser capaces de enfrentar las barreras específicas de género y culturales, que solamente otras mujeres que han vivido estas mismas experiencias podrían entender. Es más, al promover mentores, estas intervenciones ponen bajo los reflectores a las mujeres líderes en tecnología, ayudando así a cambiar las normas y expectativas en torno a la autoridad de las mujeres en este campo. Un ejemplo de ello es Women in Cybersecurity Mentorship Programme. Esta iniciativa fue creada por UIT, EQUALS y el Forum of Incident Response and Security Teams (FIRST). Éste promueve a las líderes en el campo de la ciberseguridad, y es un recurso para que mujeres de todo nivel compartan las mejores prácticas profesionales. Google Summer of Code es otra oportunidad de mentoría más amplia (abierta a todos los géneros). Los postulantes concursan por una mentoría en un proyecto de programación al cual están desarrollando; los mentores ayudan a presentarles las normas y estándares de la comunidad de código abierto y desarrollan sus proyectos en dicho código.

Outreachy es un programa de pasantías que busca incrementar la diversidad en la comunidad de código abierto. Se considera a los postulantes si son golpeados por la subrepresentación en tecnología en la zona en donde viven. La iniciativa incluye a una serie de distintos proyectos en los cuales pueden trabajar, dura tres meses y se llevan a cabo en modo remoto con un estipendio de 7000 USD para reducir las barreras a la participación de los grupos marginados.

USAID/Microsoft Airband Initiative

La USAID/Microsoft Airband Initiative toma enfoques localizados para enfrentar la brecha de género digital. En cada región las organizaciones asociadas, que son compañías tecnológicas locales, trabajan en colaboración con expertos locales en desigualdad de género para diseñar un proyecto con que incrementar la conectividad, con énfasis en la de las mujeres y en la reducción de la brecha de género digital. Hacer que las compañías tecnológicas sean el centro del programa ayuda a enfrentar barreras tales como la determinación de precios sostenibles. La segunda etapa del programa utiliza recursos de USAID y Microsoft para ampliar la escala de las iniciativas locales. La etapa final busca capitalizar las dos primeras etapas, reclutando nuevos asociados y alentando a programas independientes.

Programa Women’s Second Chance Education (SCE) de la ONU

El programa UN Women’s Second Chance Education (SCE) Programme de la ONU utiliza el aprendizaje electrónico para incrementar el alfabetismo y la competencia digital, en particular la de mujeres y niñas que se perdieron las oportunidades educativas tradicionales. El programa fue llevado a cabo de modo piloto entre 2018 y 2023 en seis países de distintos contextos, entre ellos crisis humanitarias, ingreso medio y entre refugiados, migrantes y pueblos indígenas. El piloto ha sido en general exitoso, pero el acceso a la internet sigue siendo un problema para los grupos vulnerables, y el aprendizaje semipresencial (que utiliza componentes tanto en línea como offline) fue particularmente exitoso, especialmente a la hora de adaptarse a las necesidades, cronogramas y problemas singulares que las participantes enfrentan.

Inicio

Referencias

A continuación encontrará las obras citadas en este recurso.

Recursos adicionales

Inicio


*UNA NOTA SOBRE LA TERMINOLOGÍA DE GÉNERO

Toda referencia a “mujeres” (salvo aquellas referentes a estudios externos o encuestas específicos, donde fue fijado por los respectivos autores) es de género inclusivo para niñas, mujeres o cualquier otra persona que se identifique como tal.

Aunque gran parte de este artículo se concentra en las mujeres, las personas de todo género se ven afectadas por la brecha digital de género, y los grupos de géneros marginados que no se identifican como mujeres enfrentan algunos de los mismos retos a la hora de usar la internet, y tienen algunas de las mismas oportunidades para usarla y así enfrentar las barreras offline.

Categories

ID Digital

¿Qué es el ID digital?

Familias desplazadas por la violencia de Boko Haram en Maiduguri, Nigeria nororiental. La implementación de un sistema de ID digital requiere del consentimiento informado de los participantes. Crédito de la fotografía: USAID.
Familias desplazadas por la violencia de Boko Haram en Maiduguri, Nigeria nororiental. La implementación de un sistema de ID digital requiere del consentimiento informado de los participantes. Crédito de la fotografía: USAID.

Los sistemas de ID digital son los que dependen de la tecnología digital. La tecnología biométrica es un tipo de herramienta usada a menudo para la identificación digital: la biometría permite a la gente probar su identidad a partir de una característica o rasgo físico (dato biológico). Otras formas de identificación digital incluyen las tarjetas y tecnologías móviles. Este recurso, que se apoya en el trabajo de The Engine Room, examinará las distintas formas y las implicaciones de las ID digitales, con atención particular en las biométricas, lo que incluye su integración con los sistemas de salud y su potencial para la participación electrónica.

“La biometría no es nueva; las fotografías se han usado en este sector durante años, pero el discurso actual en torno a la ‘biométrica’ usualmente se refiere a las huellas digitales, huellas faciales y reconocimiento del iris. A medida que la tecnología continúe avanzando, la capacidad de capturar otras formas de datos biométricos también irá mejorando de modo tal que las huellas de voz, escaneos retinales, patrones de venas, huellas linguales, movimientos labiales, patrones de orejas, la caminata y, claro está, el ADN podrán usarse con fines de autenticación e identificación”.

The Engine Room

Definiciones

Datos biométricos: las características físicas o rasgos personales distintivos automáticamente mensurables, usados para identificar o verificar la identidad de una persona.

Consentimiento: el artículo 4(11) del Reglamento General de Protección de Datos (RGPD) define el consentimiento: “El consentimiento del sujeto de los datos quiere decir toda indicación libremente dada, específica, informada e inequívoca del deseo de dicho sujeto, mediante una declaración o clara acción afirmativa, que significa su acuerdo al procesamiento de los datos personales relacionados con él o ella”. Véase también el recurso de Protección de datos.

Sujeto de los datos: la persona cuyos datos se recogen.

ID digital: un sistema electrónico de manejo de la identidad usado para probar la identidad de una persona o su derecho a acceder a información o servicios.

Voto electrónico: un sistema electoral que permite a un votante expedir electrónicamente su voto seguro y secreto.

Sistemas biométricos fundamentales: sistemas que proveen una identificación general para usos oficiales, como el registro civil nacional y el ID nacional.

Sistemas biométricos funcionales: sistemas que responden a una demanda de un servicio o transacción particular, como la ID de un votante, registros de salud o servicios financieros.

Identificación/autenticación de uno a muchos: el uso del identificador biométrico para identificar al sujeto de los datos dentro de una base de datos de otros perfiles biométricos.

Inmutabilidad: la cualidad de una característica que no cambia con el tiempo (por ejemplo, el ADN).

Identidad portátil: las credenciales del ID digital de una persona pueden ser llevadas consigo más allá de la autoridad emisora original, para así probar la identidad oficial a nuevas relaciones/entidades del usuario sin tener que repetir la verificación en cada oportunidad.

Identidad autosoberana: una ID digital que da al sujeto de los datos la propiedad plena sobre su identidad digital, garantizándole su portabilidad vitalicia independientemente de toda autoridad central.

Singularidad: una característica que distingue suficientemente a una persona de otra. La mayoría de las formas de datos biométricos son singularmente únicos a la persona involucrada.

Verificación/autenticación uno a uno: el uso del identificador biométrico para confirmar que el sujeto de los datos es quien afirma ser.

¿Cómo funciona la ID digital?

Joven mujer iraquí retratada en el campamento de IDP de Harsham en Erbil, Iraq. Los ID digital y la biometría tienen el potencial para facilitar el proceso de votación. Crédito de la fotografía: Jim Huylebroek para Creative Associates International.
Joven mujer iraquí retratada en el campamento de IDP de Harsham en Erbil, Iraq. Los ID digital y la biometría tienen el potencial para facilitar el proceso de votación. Crédito de la fotografía: Jim Huylebroek para Creative Associates International.

Hay tres principales categorías de tecnología usada en la identificación digital: biometría, tarjetas y móvil. Dentro de cada una de estas áreas hay una amplia gama de tecnologías a las cuales se puede usar.

El NIST (National Institute of Standards and Technology, una de las principales autoridades internacionales de ID digitales) identifica tres partes en cómo es que el proceso de ID digital opera.

1ª parte: prueba y registro de identidad

Este es el proceso de ligar los datos de la identidad del sujeto con un autenticador, que es una herramienta usada para probar su identidad.

  • Con un ID biométrico, esto involucra la recolección de los datos (mediante el escaneo ocular, la toma de huellas digitales, la presentación de un selfie, etc.) que verifican que la persona es quien dice ser, y la conexión de dicha persona con una cuenta de identidad (perfil).
  • Con un ID no biométrico, esto involucra entregarle a la persona una herramienta (un autenticador) que podrá usar para su autenticación, como una clave, un código de barras, etc.

2a parte: autenticación

Este es el proceso de usar la ID digital para probar la identidad o acceder a servicios.

Autenticación biométrica: hay dos tipos distintos de autenticación biométrica.

  • La verificación biométrica (o autenticación uno a uno) confirma que la persona es quien dice ser. Esto permite a las organizaciones establecer, por ejemplo, que una persona tiene derecho a ciertos alimentos, vacunas o vivienda.
  • La identificación biométrica (o autenticación uno a muchos) se usa para identificar a una persona dentro de una base de datos de perfiles biométricos. Las organizaciones pueden emplear la biometría para prevenir las inscripciones fraudulentas y para “des-duplicar” listas de personas. Los sistemas de autenticación uno a muchos presentan más riesgos que los sistemas uno a uno porque requieren que una mayor cantidad de datos sean almacenados en un lugar, y porque conducen a más coincidencias falsas. (Lea más en la sección Riesgos).

El cuadro que aparece a continuación resume las ventajas y desventajas de las distintas herramientas de identificación biométrica. Para mayores detalles consúltese “Technology Landscape for Digital Identification (2018)” del Banco Mundial.

Herramienta biométricaVentajasDesventajas
Huellas dactilaresMenos invasiva física/personalmente; método avanzado y relativamente asequibleNo es plenamente inclusiva; algunas huellas dactilares son más difíciles de captar que otras
Escaneo del iris
Rápido, preciso, inclusivo y seguroTecnología más costosa, la verificación requiere de un posicionamiento preciso del sujeto de los datos; puede ser mal utilizada para fines de vigilancia (verificación sin permiso del sujeto de los datos)
Reconocimiento facialRelativamente asequibleProclive al error; puede ser mal utilizada con fines de vigilancia (verificación sin permiso del sujeto de los datos); no hay suficiente estandarización entre los proveedores de la tecnología, lo que podría generar una dependencia del proveedor
Reconocimiento de vozRelativamente asequible; no hay problemas de higiene (a diferencia de otra biometría que requiere del tacto)El proceso de recolección puede ser difícil y tomar mucho tiempo; es difícil ampliar la escala de esta tecnología
Reconocimiento conductual, también conocida como “Biometría suave” (esto es, la caminata de una persona, el modo en que firma)Puede usarse en tiempo realProclive al error; aún no es una tecnología madura; podría ser mal utilizada con fines de vigilancia (verificación sin permiso del sujeto de los datos)
Reconocimiento vascular (El patrón singular de venas de una persona)Tecnología segura, precisa e inclusivaMás costosa; aún no es una tecnología madura y no es ampliamente entendida; no es interoperable/los datos no son fácilmente portables
Perfil de ADNSeguro; preciso; inclusivo; útil para poblaciones grandesEl proceso de recolección es largo; la tecnología es costosa; involucra información extremadamente sensible a la cual se podría usar para identificar la raza, género y relaciones familiares, etc., lo que podría poner en riesgo a la persona

Autenticación no biométrica: hay dos formas comunes de ID digital que no están basadas en características o rasgos personales, y que también tienen métodos de autenticación. Las tarjetas y aplicaciones digitales de IA en los dispositivos móviles pueden también usarse para probar la identidad o acceder a servicios o asistencia (como un pasaporte, tarjeta de residencia o licencia de conducir).

  • Tarjetas: estas son un identificador digital común, que pueden depender de muchos tipos de tecnología, desde los microchips a los códigos de barras. Las tarjetas han estado en uso por un largo tiempo, lo que las hace una tecnología madura, pero también son menos seguras porque pueden perderse o ser robadas. Hay “tarjetas inteligentes” bajo la forma de un microchip insertado combinado con una contraseña. Las tarjetas también pueden combinarse con los sistemas biométricos. Por ejemplo, Mastercard y Thales comenzaron a ofrecer tarjetas con sensores de huellas dactilares en enero de 2020.
  • Apps en dispositivos móviles: los ID digitales pueden usarse en dispositivos móviles dependiendo de una contraseña, una tarjeta SIM “criptográfica” (especialmente codificada) o una app de “ID inteligente”. Estos métodos son bastante precisos y ampliables de escala, pero tienen riesgos de seguridad y también riesgos en el largo plazo debido a la dependencia de los proveedores de tecnología: la tecnología podría no ser interoperable o hacerse obsoleta (véase Privatización del ID y Dependencia del vendedor en la sección Riesgos ).

Part 3a parte: portabilidad e interoperabilidad

Las ID digitales usualmente son generadas para una persona por una sola autoridad emisora (ONG, entidad gubernamental, proveedor de salud, etc.). Sin embargo, la portabilidad quiere decir que los sistemas de ID digitales pueden diseñarse para permitir que la persona utilice su ID en otros lugares además de la autoridad emisora, por ejemplo con otra entidad gubernamental u organización sin fines de lucro.

Para entender la interoperabilidad, considere por ejemplo a distintos proveedores de mensajes electrónicos como Gmail y Yahoo Mail: son distintos proveedores de servicio pero sus usuarios pueden enviarse mensajes entre ellos. La portabilidad e interoperabilidad de los datos son cruciales desde una perspectiva fundamental de los derechos, pero primero es necesario que distintas redes (proveedores, gobiernos) sean operables entre sí para que la portabilidad sea posible. La interoperabilidad es cada vez más importante para proporcionar servicios dentro y entre países, como se puede ver en la
Unión Europea y la comunidad Schengen, la comunidad de África Oriental y la comunidad ECOWAS de África occidental.

La identidad autosoberana (SSI) es un importante tipo emergente de ID digital que da a una persona la propiedad total de su identidad digital, garantizando así su portabilidad vitalicia independientemente de toda autoridad central. El modelo de la identidad autosoberana busca eliminar los problemas de confianza y los desequilibrios de poder que acompañan por lo general a la identidad digital, dándole a la persona el control total de sus datos.

Inicio

¿De qué modo es la ID digital relevante en el espacio cívico y para la democracia?

La gente de todo el mundo que no está identificada con documentos gubernamentales enfrenta unas barreras significativas para la recepción de servicios del gobierno y asistencia humanitaria. La biometría es ampliamente usada por los donantes y actores del desarrollo para identificar a las personas y conectarlas con los servicios. La tecnología biométrica podría incrementar el acceso a las finanzas, el cuidado de la salud, la educación y otros servicios y beneficios cruciales. También podría emplearse para registrar votantes y facilitar la participación cívica.

Una residente de Garin Wazam, en Níger, canjea su vale electrónico por comida. La tecnología biométrica puede incrementar el acceso a servicios y beneficios cruciales. Crédito de la fotografía: Guimba Souleymane, International Red Cross Niger.

El Alto Comisionado de las Naciones Unidas para los Refugiados (ACNUR) dio inicio a su Sistema de Gestión de Identidad Biométrica (“BIMS”) en 2015, y al año siguiente el World Food Program comenzó a usar la biometría para múltiples fines, entre ellos la protección de refugiados, intervenciones basadas en dinero en efectivo y la inscripción de votantes. En los últimos años, una creciente preferencia por el suministro de la asistencia en dinero en efectivo en estas intervenciones formó parte del impulso hacia la ID digital y la biometría, puesto que estas herramientas pueden monitorear y reportar la distribución de la ayuda.

La naturaleza automatizada de la ID digital trae consigo muchos nuevos retos, desde la recolección del consentimiento significativamente informado hasta el garantizar la seguridad personal y a nivel de las organizaciones, o a posiblemente causar daños a la dignidad humana o una creciente exclusión. Estos problemas técnicos y sociales se detallan en la
sección Riesgos.

Principios éticos de la biometría

Fundado en julio de 2001 en Australia, el Biometrics Institute es una organización de membresía independiente e internacional de la comunidad biométrica. En marzo de 2019, ésta presentó los siete “Ethical Principles for Biometrics” (Principios éticos de la biometría).

  1. Comportamiento ético: reconocemos que nuestros miembros deben actuar éticamente incluso más allá de lo que la ley requiere. Con comportamiento ético se entiende evitar actos que dañen a las personas y a su entorno.
  2. Propiedad de la biometría y respeto por los datos individuales de una persona: aceptamos que las personas tienen una propiedad significativa pero no total de sus datos personales (independientemente de dónde se les guarde y procese) y de su biometría en particular, lo que requiere que sus datos deberán ser respetados y tratados con el mayor cuidado posible por otros, incluso cuando se les comparta.
  3. Servir a los humanos: sostenemos que la tecnología debe servir a los humanos y que debiera tener en cuenta el bien público, la seguridad de la comunidad y los beneficios netos de las personas.
  4. Justicia y rendición de cuentas: aceptamos los principios de apertura, supervisión independiente, rendición de cuentas y el derecho de apelación y la debida reparación.
  5. Promover la tecnología que mejore la privacidad: promovemos la más alta calidad del uso de la tecnología apropiada, lo que incluye la precisión, la detección y reparación de errores, sistemas resistentes y el control de calidad.
  6. Reconocer la dignidad e iguales derechos: apoyamos el reconocimiento de la dignidad y la igualdad de derechos para todas las personas y familias como la base de la libertad, la justicia y la paz en el mundo, en consonancia con la Declaración universal de los derechos humanos de las Naciones Unidas.
  7. Igualdad: promovemos la planificación e implementación de la tecnología para prevenir la discriminación o el sesgo sistémico basados en la religión, la edad, el género, la raza, sexualidad u otros descriptores de los humanos.

Inicio

Oportunidades

Registro biométrico de los votantes en Kenia. La recolección y el almacenaje de los datos biométricos requieren de fuertes medidas de protección de datos. Crédito de la fotografía: USAID/Kenya Jefrey Karang’ae.

Hágase estas preguntas si está intentando entender las implicaciones de los ID digitales en su entorno laboral, o si está considerando usar algunos aspectos de ellos como parte de sus programas de DRG:
Reducción potencial del fraude

La biometría es frecuentemente citada por su potencial para reducir el fraude y, más en general, gestionar el riesgo financiero al facilitar la supervisión de debida diligencia y el escrutinio de las transacciones. Según The Engine Room, estas son justificaciones frecuentemente citadas para el uso de la biometría entre los actores de desarrollo y humanitarios, pero The Engine Room también halló que faltan evidencias con que respaldar esta afirmación. No debiera asumirse que el fraude se da sólo a nivel de los beneficiarios: los problemas reales de fraude podrían tener lugar en cualquier parte de un ecosistema.

Facilitando el voto electrónico

Más allá de la distribución de dinero y servicios, el potencial de los ID digitales y la biometría es facilitar el proceso de votación. El derecho a votar, y más en general a participar en procesos democráticos, es un derecho humano fundamental. Recientemente, el uso de sistemas con un registro biométrico de los votantes y de la votación se ha difundido más como medio de empoderar la participación cívica, de asegurar más a los sistemas electorales, y como protección del fraude en la votación y de las inscripciones múltiples.

Los promotores sostienen que el voto electrónico podría reducir los costos de participación y hacer que el proceso sea más confiable. Los críticos, entretanto, afirman que los sistemas digitales corren el riesgo de fallos, abusos y violaciones a la seguridad. La manipulación de las boletas electrónicas, un código mal escrito o cualquier otro tipo de fallo técnico podría comprometer el proceso democrático, en particular cuando no se cuenta con el respaldo de una huella de papel. Para mayor información consúltese
Introducing Biometric Technology in Elections” (2017), del International Institute for Democracy and Electoral Assistance, que incluye estudios de caso detallados sobre el voto electrónico en Bangladesh, Fiyi, Mongolia, Nigeria, Uganda y Zambia.

Historiales médicos

Proteger los expedientes médicos electrónicos, en particular cuando los servicios de cuidado son suministrados por múltiples actores, podría ser algo muy complicado, costoso e ineficiente. Dado que la biometría liga a un único verificador con una sola persona, son útiles para identificar a los pacientes, y permiten que los médicos y los proveedores de salud conecten a una persona con información de su salud y su historial médico. La biometría tiene potencial en la distribución de vacunas, por ejemplo al poder identificar quién ha recibido vacunas específicas (véase el estudio de caso de The New Humanitarian acerca de la tecnología Gavi).

El acceso al cuidado de salud puede ser particularmente complicado en las zonas de conflicto para los migrantes y personas desplazadas, o para otros grupos que no cuentan con su expediente de salud documentado. Con la biometría interoperable, cuando los pacientes necesitan transferirse de un servicio a otro por cualesquier razón, su información digital puede viajar con ellos. Para mayor información consúltese World Bank Group ID4D, “The Role of Digital Identification for Healthcare: The Emerging Use Cases” (2018).

Mayor acceso a intervenciones basadas en dinero en efectivo

Los sistemas de ID digital tienen el potencial para incluir a los grupos no bancarizados o subatendidos por las instituciones financieras en la economía local o hasta global. El ID digital da a las personas acceso a servicios financieros regulados al permitirles probar su identidad oficial. Las poblaciones en áreas remotas pueden beneficiarse en particular con ID digitales, que permiten el proofing/inscripción remota o no de rostro a rostro para la identificación /verificación de los clientes. La biometría puede asimismo hacer que los servicios bancarios sean mucho más eficientes, reduciendo los requisitos y obstáculos que los beneficiarios normalmente enfrentarían. La WFP brinda un ejemplo de una exitosa intervención con dinero en efectivo: en 2017 lanzó su primera asistencia basada en efectivo para niñas de colegios secundarios en Pakistán noroccidental, usando los datos biométricos de asistencia.

Según el Grupo de Acción Financiera Internacional la biometría refuerza aún más las salvaguardas financieras al llevar más gente al sector financiero regulado.

Mejor distribución de la asistencia y de los beneficios sociales

Los sistemas biométricos pueden reducir gran parte del tiempo y esfuerzo humanos que yacen detrás de la asistencia, liberando así recursos humanos para dedicarlos al suministro de los servicios. La biometría permite que el suministro de asistencia sea entregado en tiempo real, lo que permite a los gobiernos y organizaciones de asistencia responder rápidamente a los problemas de los beneficiarios.

La biometría también permite reducir las redundancias en la entrega de beneficios sociales y de subvenciones. Por ejemplo, en 2015 el Grupo del Banco Mundial halló que en Botsuana, los ID digitales biométricos alcanzaron un ahorro del 25 por ciento en pensiones y subvenciones sociales identificando registros duplicados y beneficiarios fallecidos. En efecto, el problema de los beneficiarios “fantasmas” es un problema común. En 2019, el
Fondo de Pensiones del Gobierno de Namibia (GIPF) comenzó a pedir a los receptores de pensiones que inscribieran su biometría en la oficina más cercana del GIPF y que regresaran para verificar su identidad tres veces al año. La distribución de los beneficios sociales puede, claro está, ser asistida por la biometría pero también requiere de supervisión humana, dada la posibilidad de problemas técnicos en el suministro del servicio digital y la naturaleza crítica de dichos servicios (véase más detalles en la sección de Riesgos).

Prueba de identidad

Los migrantes, refugiados y personas en busca de asilo a menudo luchan por probar y conservar su identidad cuando se reubican. Cuando huyen de su hogar, muchos pierden la prueba de su identidad legal y de sus activos, por ejemplo, títulos y certificaciones, expedientes médicos y activos financieros. Una biometría diseñada responsablemente podría ayudar a estas poblaciones a restablecerse y a conservar la prueba de su identidad. En Finlandia, por ejemplo, una startup de blockchain llamada MONI viene trabajando desde 2015 con el Servicio Migratorio finés para dar a los refugiados que hay en el país una tarjeta de crédito prepagada, respaldada por un número de identidad digital guardado en un blockchain. El diseño de estas tecnologías es crucial: los datos debieran estar distribuidos antes que centralizados, para así prevenir riesgos de seguridad y la mala utilización o abusos que vienen con la propiedad centralizada de la información sensible.

Inicio

Riesgos

El uso de tecnologías emergentes puede asimismo crear riesgos en los programas de la sociedad civil. Lea a continuación cómo distinguir los posibles riesgos asociados con el uso de las herramientas de ID digital en el trabajo DRG.

Deshumanización de los beneficiarios

La forma en que se considera a la biometría —el otorgamiento de identidad a una persona como si no la hubiese tenido antes— podría ser considerada problemática y hasta deshumanizadora.

Tal como The Engine Room
explica, “el discurso en torno a los beneficios de ‘identificabilidad’ de la biometría en las intervenciones humanitarias frecuentemente tiende a incluir el papel que ésta puede tener. Las organizaciones humanitarias no pueden ‘dar’ una identidad a un beneficiario, sólo pueden registrar las características identificadoras y cotejarlas con otros registros. Tratar la adquisición de datos biométricos como si fuesen un elemento constitutivo de la identidad corre el riesgo de deshumanizar a los beneficiarios, la mayoría de los cuales ya de por sí están desamparados en su relación con las entidades humanitarias de las cuales dependen para su supervivencia. Esta actitud resulta evidente en las observaciones hechas por un refugiado birmano al que se le estaban tomando las huellas dactilares en Malasia en 2006 —‘No sé para qué es, pero sí que es lo que ACNUR desea que haga’—, así como en las palabras de un refugiado congolés en Malawi, quien al completar el registro biométrico le dijo al personal: ‘Ya puedo ser alguien’”.

Falta de consentimiento informado

Es crucial obtener el consentimiento informado de las personas en el proceso de inscripción biométrico. Pero este raramente es el caso en los entornos humanitarios y de desarrollo, dados los muchos aspectos técnicos confusos de la tecnología, la lengua y las barreras culturales, etc. Un acuerdo que es potencialmente forzado, no constituye consentimiento, tal como lo ilustra el caso del programa de registro biométrico en Kenia, el cual fue impugnado en los tribunales después de que muchos kenianos se sintieran presionados a inscribirse. Resulta difícil garantizar o siquiera evaluar el consentimiento cuando el desequilibrio de poder entre la autoridad emisora y el sujeto de los datos es tan sustancial. “Los refugiados, por ejemplo, podrían sentir que no tienen otra opción que dar su información porque se encuentran en situación vulnerable”.

Los menores de edad también corren un riesgo similar de un consentimiento coactado o no informado. Como The Engine Room señalara en 2016, “el ACNUR ha adoptado la postura de que la negativa a someterse a la inscripción biométrica equivale a una negativa a inscribirse en absoluto. De ser esto cierto, estaría restringiendo el derecho de los beneficiarios a cuestionar el recojo de datos biométricos, y crearía un desincentivo considerable para los beneficiarios que manifiestan su oposición al enfoque biométrico”.

Para que el consentimiento sea realmente dado, la persona debe contar con un método alternativo para que sienta que puede rechazar el procedimiento sin ser penalizado de modo desproporcionado. Las organizaciones de la sociedad civil podrían tener un papel importante en ayudar a remediar este desequilibrio de poder.

Riesgos de seguridad

Los sistemas de ID digital ofrecen muchas características de seguridad importantes, pero incrementan otros riesgos de seguridad como el de la filtración de los datos, su corrupción o uso/mal uso por parte de actores no autorizados. Dichos sistemas pueden involucrar datos sumamente detallados acerca de los comportamientos y movimientos de personas vulnerables, por ejemplo su historia financiera y su asistencia a colegios, clínicas de salud y establecimientos religiosos. Esta información podría usarse en su contra de caer en manos de otros actores (gobiernos corruptos, marketeros, delincuentes).

La pérdida, robo o mal uso de los datos biométricos son algunos de los
riesgos más grandes para las organizaciones que emplean estas tecnologías. Al recoger y almacenar sus datos biométricos en bases de datos centralizadas, las organizaciones de asistencia podrían estar poniendo a sus beneficiarios en serio riesgo, en particular si éstos están huyendo de persecuciones o conflictos. Como la ID digital en general depende de la Internet o de alguna otra red de comunicación abierta, son muchas las oportunidades para que se den ciberataques y violaciones de seguridad. The Engine Room también cita información anecdótica de trabajadores humanitarios que pierden laptops, llaves USB y otros archivos digitales que contienen los datos de los beneficiarios. Consúltese también el recurso de Protección de datos.

Reutilización y mal uso de los datos

Dado que la biometría es única e inmutable, una vez que los datos biométricos están afuera en el mundo la gente ya no es más la única propietaria de sus identificadores. The Engine Room describe esto como la “no revocabilidad” de la biometría. Esto quiere decir que la biometría podría ser usada para otros fines fuera de su objetivo original. Por ejemplo, los gobiernos podrían requerir que los actores humanitarios les den acceso a las bases de datos biométricas con fines políticos, o los países extranjeros podrían obtener datos biométricos con fines de inteligencia. Las personas no pueden cambiar fácilmente su biometría, como sí lo harían con una licencia de conducir o siquiera su nombre: por ejemplo, con el reconocimiento facial tendrían que tener cirugía plástica a fin de retirar sus datos biométricos.

También se corre el riesgo de que la biometría sea usada por futuras tecnologías aún más intrusivas o dañinas que sus actuales usos. “Los gobiernos que reciben grandes poblaciones de refugiados, como el Líbano, han reclamado el derecho a tener acceso a la base de datos biométrica del ACNUR, y los Estados donantes han respaldado el uso que éste hace de la biometría por su interés en emplear los datos biométricos adquiridos como parte de su así llamada “guerra contra el terror” en curso.

The Engine Room

Para más información acerca de la potencial reutilización de los datos biométricos con fines de vigilancia consúltese también “Aiding surveillance: An exploration of how development and humanitarian aid initiatives are enabling surveillance in developing countries,” I&N Working Paper (2014).

Fallos y errores

Los sistemas de ID digital pueden experimentar muchos errores porque son demasiado técnicos y dependen de múltiples pasos y mecanismos. La biometría puede devolver falsas coincidencias y ligar a una persona con la identidad incorrecta, o falsos negativos, no vinculando a uno con su identidad real. Cuando se la aplica en comunidades reales, la tecnología no siempre funciona tal como lo hace en el laboratorio. Es más, algunas poblaciones se ven más perjudicadas con los errores que otras: por ejemplo, y como ya ha sido ampliamente probado, la gente de color es la que con mayor frecuencia es mal identificada por la tecnología de reconocimiento facial.

Algunas tecnologías son más proclives a los errores que otras; por ejemplo la biometría suave, que mide elementos tales como la caminata de una persona, es una tecnología menos madura y precisa que los escaneos de iris. Hasta las huellas dactilares siguen teniendo una alta tasa de error no obstante ser relativamente madura y ampliamente usada. La performance de ciertas biomedidas puede asimismo ir cayendo con el paso del tiempo: el envejecimiento puede cambiar las características faciales de una persona y hasta sus iris, en formas tales que podrían impedir la autenticación biométrica. La ID digital puede también sufrir por problemas de conectividad: la falta de una infraestructura confiable podría reducir el funcionamiento del sistema en un área geográfica particular durante un lapso significativo. Para mitigar esto es importante que los sistemas de ID digital sean diseñados para apoyar tanto las transacciones en línea como las que son offline.

Cuando se trata de proporcionar servicios que salvan vidas, hasta un pequeño error o fallo durante un solo paso del proceso podría provocar un daño severo. A diferencia de los procesos manuales, en donde los humanos están involucrados y pueden intervenir en caso de error, los procesos automatizados traen consigo la posibilidad de que nadie advierta un tecnicismo aparentemente pequeño hasta que sea demasiado tarde.

Potencial para excluir

Según The Engine Room, la biometría puede excluir personas por diversas razones: “Las personas podrían ser reacias a someterse a brindar muestras biométricas debido a desequilibrios culturales, de género o de poder. Obtener las muestras biométricas podría ser más difícil para las personas de piel más oscura o con discapacidades. La toma de huellas dactilares, en particular, podría ser difícil de efectuar correctamente, en especial cuando las de los beneficiarios son menos pronunciadas debido al trabajo manual y rural. Todos estos aspectos podrían inhibir el que las personas den sus datos biométricos, y excluirles por ende del suministro de asistencia”.

Los tipos de errores mencionados en la sección anterior son más frecuentes con respecto a las poblaciones de minorías que tienden a estar subrepresentadas en los conjuntos de datos de entrenamiento, por ejemplo las personas de color o con discapacidades.

La falta de acceso a la tecnología o los menores niveles de competencia tecnológica podrían agravar la exclusión: por ejemplo, la falta de acceso a teléfonos inteligentes o la falta de datos o cobertura de los celulares podría incrementar la exclusión en el caso de los sistemas de ID que dependen de los celulares. Los trabajadores manuales, como ya se dijo, usualmente tienen huellas dactilares gastadas que podrían resultar difíciles de leer cuando se usan lectores biométricos; de igual modo los ancianos podrían experimentar fallos en las coincidencias debido a cambios en sus características faciales, como la pérdida de cabellos u otras señales de envejecimiento o enfermedad, todo lo cual incrementa el riesgo de exclusión.

El World Bank ID4D program explica que a menudo observan tasas diferenciales en la cobertura de los siguientes grupos y sus intersecciones: mujeres y niñas, niños huérfanos y vulnerables; niños pobres; poblaciones rurales; minorías etnolingüísticas; migrantes y refugiados; poblaciones sin Estado o poblaciones en riesgo de estarlo; ancianos; personas con discapacidades; personas no nacionales. Vale la pena enfatizar que estos grupos tienden a ser las poblaciones más vulnerables de la sociedad: precisamente aquellos a quienes la tecnología biométrica y la ID digital busca incluir y empoderar. Cuando consideremos qué tipos de ID o de tecnología biométrica emplear, será crucial evaluar todos estos tipos de posibles errores en relación con la población, y en particular en cómo mitigar la exclusión de ciertos grupos.

Regulación insuficiente

“La tecnología está moviéndose con tanta rapidez que las leyes y regulaciones tienen problemas para mantenerse al día… Al no tener una clara legislación internacional, las empresas en el mundo biométrico a menudo se enfrentan con este dilema: ‘¿Porque puedo hacerlo, debiera hacerlo’”?

ISABELLE MOELLER, DIRECTORA EJECUTIVA DEL BIOMETRICS INSTITUTE

Las tecnologías de identificación digital existen en un entorno regulador en continua evolución, que presenta problemas para proveedores y beneficiarios por igual. Hay muchos intentos de crear estándares internacionales de la biometría y el ID digital, por ejemplo por parte de la Organización Internacional de Normalización (ISO) y la Comisión Electrotécnica Internacional (IEC). Pero más allá del RGPD, aún no hay suficiente regulación internacional para imponer estos estándares en muchos de los países en donde están siendo implementados.

Privatización del ID y dependencia del proveedor

La tecnología detrás de las identidades digitales y la biometría casi siempre es proporcionada por actores del sector privado, a menudo en asociación con gobiernos y organizaciones e instituciones internacionales. El importante papel desempeñado por el sector privado en la creación y el mantenimiento de los ID digitales podría poner tanto a beneficiarios como a organizaciones humanitarias y gobiernos en riesgo de depender del proveedor: si el costo del cambio a un nuevo proveedor del servicio es demasiado costoso u oneroso, la organización/actor podría verse forzada a quedarse con el proveedor original. La dependencia exagerada de un proveedor del sector privado podría también traer consigo riesgos de seguridad (por ejemplo, cuando la tecnología del proveedor original es insegura) y plantear problemas a la asociación con otros servicios y proveedores cuando la tecnología no es interoperable. Por estas razones es importante que la tecnología sea interoperable y que esté diseñada con estándares abiertos.

Retiro del reconocimiento facial de IBM
En junio de 2022, IBM decidió retirar su tecnología de reconocimiento facial del uso de las agencias policiales de EE.UU. Estas decisiones aisladas por parte de actores privados no debieran reemplazar los juicios y regulaciones legales. Debbie Reynolds, funcionaria de privacidad de datos de Women in Identity, cree que el reconocimiento facial no habrá de desaparecer pronto, de modo tal que considerando las muchas fallas que la tecnología tiene actualmente, las compañías debieran concentrarse en mejorarla aún más en lugar de suspenderla. La regulación e imposición internacional es necesaria ante todo y sobre todo, puesto que esto dará a los actores privados directrices e incentivos para diseñar una tecnología responsable y que respete los derechos en el largo plazo.

Inicio

Preguntas

Hágase las siguientes preguntas si está considerando usar herramientas de ID digital como parte de sus programas, para así entender las posibles implicaciones para su trabajo y para su comunidad y asociados.

  1. ¿El beneficiario ha dado su consentimiento informado? ¿Cómo logró comprobar su comprensión? ¿El consentimiento fue de algún modo coercionado, tal vez debido a una dinámica de poder o falta de opciones alternativas?
  2. ¿Cómo se siente la comunidad con respecto a la tecnología? ¿Ésta encaja con las normas culturales y defiende la dignidad humana?
  3. ¿Qué tan asequible es la tecnología para todas las partes interesadas, incluyendo a los sujetos de datos?
  4. ¿Qué tan madura es la tecnología? ¿Cuánto tiempo ha estado en uso, dónde y con qué resultados? ¿Qué tan bien es entendida por todas las partes interesadas?
  5. ¿La tecnología está acreditada? ¿Cuándo y por quién? ¿La tecnología está basada en estándares ampliamente aceptados? ¿Son estándares abiertos?
  6. ¿Cuán interoperable es la tecnología con las otras del ecosistema de identidad?
  7. ¿Qué tan bien se desempeña la tecnología? ¿Cuánto tiempo toma recoger los datos, validar la identidad, etc.? ¿Cuál es la tasa de error?
  8. ¿Cuán resiliente es el sistema digital? ¿Puede operar sin acceso a internet o sin un acceso confiable?
  9. ¿Qué tan fácil es ampliar la tecnología de escala y usarla con poblaciones más grandes u otras?
  10. ¿Cuán segura y precisa es la tecnología? ¿Todos los riesgos de seguridad han sido abordados? ¿Qué métodos tiene en términos de copia de seguridad (por ejemplo, una huella de papel para la votación electrónica)?
  11. ¿La recolección de datos biométricos es proporcional a las tareas a mano? ¿Está recogiendo el monto mínimo de datos necesarios para alcanzar su meta?/div>
  12. ¿Dónde se guardan todos los datos? ¿Qué otras partes podrían tener acceso a esa información? ¿Cómo se protegen los datos?
  13. ¿Algunas de las personas que recibiría ID biométrico o digital forma parte de un grupo vulnerable? Si inscribir digitalmente su identidad podría ponerles en riesgo, ¿cómo podría mitigar esto? (Por ejemplo, evitando una base de datos centralizada, minimizando la cantidad de datos recogidos, tomando precauciones de ciberseguridad, etc.).
  14. ¿Qué poder tiene el beneficiario sobre sus datos? ¿Puede transferirlos a otro lado? ¿Puede solicitar que sus datos sean borrados, y podrían en realidad serlo?
  15. Si está usando ID digital o biometría para automatizar el cumplimiento de los derechos fundamentales o el suministro de servicios públicos cruciales, ¿hay suficiente supervisión humana?
  16. ¿Cuál es el error tecnológico más probable que excluya o dañe? ¿Cómo enfrentará este posible daño o exclusión?

Inicio

Estudios de caso

Aadhaar, India, el sistema biométrico nacional más grande del mundo

Aadhaar es el programa de ID biométrico nacional de India y el más grande del mundo. Es un estudio de caso esencial para entender los posibles beneficios y riesgos de semejante sistema. Aadhaar es controversial. Muchos han atribuido muertes debidas al hambre a los fallos del sistema Aadhaar, que no tiene suficiente supervisión humana para intervenir cuando la tecnología funciona mal e impide que las personas accedan a sus beneficios. Sin embargo, en 2018, la Corte Suprema de India sostuvo la legalidad del sistema diciendo que no viola el derecho de los indios a la privacidad, y que por ende podía seguir operando. “Aadhaar da dignidad a los marginados”, afirmaron los jueces, y que “La dignidad de los marginados supera la privacidad”. Aunque hay riesgos sustanciales, hay también oportunidades significativas para los ID digitales en la India, lo que incluye una mayor inclusividad y accesibilidad para que personas por lo demás no registradas accedan a los servicios sociales y tomen parte en la sociedad.

La tecnología del escaneo de iris de WFP en el campamento de refugiados de Zaatari

En 2016, el Programa Mundial de Alimentos introdujo la tecnología biométrica en el campamento de refugiados de Zaatari en Jordania. “El sistema de WFP depende de los datos del registro biométrico de los refugiados del ACNUR. El sistema es propulsado por IrisGuard, la compañía que desarrolló la plataforma de escaneo del iris, el Jordan Ahli Bank y su contraparte Middle East Payment Services. Una vez que se le ha escaneado el iris a un comprador, el sistema automáticamente se comunica con la base de datos del registro del ACNUR para confirmar la identidad del refugiado, revisa el saldo de la cuenta con el Jordan Ahli Bank y Middle East Payment Services, y luego confirma la compra e imprime un recibo, todo ello en segundos”. Para 2019 el programa, que depende en parte de la tecnología de blockchain, estaba apoyando a más de 100,000 refugiados.

Huduma Namba de Kenia

En enero de 2022, el New York Times reportó que los ID digitales de Kenia podrían excluir a millones de minorías. En febrero, el programa Huduma Namba keniano de ID fue suspendido por un fallo de la corte suprema, el cual detuvo “al plan Huduma Namba de $60 millones hasta que se implementen políticas de protección de datos adecuadas. El panel de tres jueces falló en un informe de 500 páginas, que el National Integrated Identification Management System (NIIMS, Sistema Nacional Integrado de Administración de la Identificación) es constitucional, reporta The Standard, pero las actuales leyes no bastan para garantizar la protección de los datos. […] Meses después de iniciada la captura biométrica, el gobierno aprobó su primera ley de protección de datos a finales de noviembre de 2019, luego de que hubiese intentado rebajar la categoría del papel de comisionado de protección de datos a una agencia ‘semiindependiente’ de protección de datos, con un director nombrado por el presidente. Las medidas de protección de datos aún están por implementarse. El caso fue presentado por grupos de derechos civiles, entre ellos el Nubian Rights Forum y Kenya National Commission on Human Rights (KNCHR), que citando cuestiones de privacidad de los datos y de privacidad, sostuvieron que la forma en que las leyes de protección de datos estaban siendo manejadas en el parlamento impedían la participación pública, y que el plan NIIMS estaba resultando ser étnicamente divisivo en el país, en particular en las zonas de frontera”.

Biometría para la vacunación infantil

Como se explora en The New Humanitarian, 2019: “un proyecto de prueba está siendo lanzado con la apuesta subyacente de que la identificación biométrica es la mejor forma de impulsar las tasas de vacunación, vinculando a los niños con su expediente médico. A miles de niños entre uno y cinco años de edad se les van a tomar las huellas dactilares en Bangladesh y Tanzania, en el programa biométrico más grande de su tipo jamás intentado, anunció recientemente Gavi, la agencia de vacunación con sede en Ginebra. Aunque el plan incluye salvaguardas de protección de datos —y sus patrocinadores se cuidan de no prometer beneficios inmediatos—, está dándose en medio de un debate cada vez más amplio acerca de la protección de datos, la ética de la tecnología, y los riesgos y beneficios de la ID biométrica en la asistencia de desarrollo y humanitaria”.

Financial Action Task Force Case Studies

Véanse también los estudios de caso reunidos por el Grupo de Acción Financiera Internacional (FATF), la organización intergubernamental concentrada en combatir el financiamiento del terrorismo. En 2020 éste dio a luz un recurso exhaustivo acerca de la Identidad Digital, que incluye breves estudios de caso.

Identidad digital en el contexto de la migración y los refugiados

Identidad digital en el contexto de la migración y los refugiados

Para los migrantes y refugiados en Italia, los procesos de recolección de datos de identidad pueden “exacerbar los sesgos existentes, la discriminación o los desequilibrios de poder”. Un reto clave es obtener un consentimiento significativo. Los datos biométricos a menudo se recogen tan pronto los migrantes y refugiados llegan a un país nuevo, en un momento en el cual podrían ser vulnerables y hallarse abrumados. Las barreras del lenguaje exacerban el problema, haciendo que sea difícil dar un contexto adecuado en torno a los derechos a la privacidad. Los datos de identidad los recogen de modo inconsistente distintas organizaciones, cuyas prácticas de protección de datos y de la privacidad varían todas ampliamente.

Usando la ID digital en Ucrania

Usando la ID digital en Ucrania

En 2019 USAID, en asociación con el Ministerio de Transformación Digital de Ucrania, ayudó a lanzar la app Diia, que permite a los ciudadanos acceder a formularios de identificación digitales que, desde agosto de 2021 tienen el mismo valor legal que las formas físicas de identificación. Diia tiene un total de 18 millones de usuarios en Ucrania, y es la app más usada en el país. El apoyo a la app es crucial para el desarrollo digital de Ucrania, y se ha vuelto cada vez más importante a medida que la guerra obliga a muchos a huir, y daña los edificios del gobierno y la infraestructura existente. La app permite a los usuarios guardar pasaportes digitales junto con otros 14 documentos digitales y acceder a 25 servicios públicos, todo ello en línea.

Inicio

Referencias

A continuación encontrará las obras citadas en este recurso.

Este manual aprovecha el trabajo de The Engine Room y el recurso que prepararon en colaboración con Oxfam acerca de la Biometrics in the Humanitarian Sector, publicado en marzo de 2018.

Inicio

Categories

Manipulación de la información

¿Qué es la manipulación de la información?

La manipulación de la información comprende una serie de tácticas que involucran la recolección y difusión de información para influir o perturbar la toma de decisiones democrática. Muchos tipos de contenidos distintos pueden estar involucrados en ella, como la manipulación de la información, la desinformación, la misinformación y la mal-información, la propaganda y los discursos de odio. Estos contenidos pueden usarse para influir en las actitudes o creencias del público, persuadiendo a las personas de que actúen o se comporten de determinado modo —como suprimir el voto de un grupo particular de personas— o incitando al odio y la violencia. Una diversidad de actores puede participar en la manipulación de la información, desde gobiernos domésticos, partidos políticos y campañas, a actores comerciales, gobiernos extranjeros y grupos extremistas. La manipulación de la información puede cooptar los canales de información tradicionales, como las transmisiones televisivas, la imprenta y la radio, así como los medios sociales.

Desinformación

La desinformación es información falsa o engañosa, difundida con la intención de engañar o causar daño. Siempre tiene un propósito y no necesariamente está conformada por mentiras o falsificaciones abiertas. La inclusión de ciertos hechos verdaderos o “verdades a medias” privadas de contexto, puede hacer que la desinformación sea más creíble y más difícil de reconocer.

Desinformación = información falsa + intención de causar dañom

Misinformación

La misinformación es el compartir inadvertidamente información falsa o errada. Difiere de la desinformación debido a la ausencia de una intención de engañar o causar daño, y la persona que la comparte por lo general cree que es verdad. Un ejemplo de misinformación son los rumores que se propagaron en los medios sociales durante la pandemia de COVID-19 acerca de “curas” que no tenían base alguna en la ciencia médica.

Misinformación = información falsa + error

Misinformation, disinformation, malinformation

Claire Wardle & Hossein Derakhshan, 2017

Mal-información

La mal-información es información verdadera sin el debido contexto en un intento de engañar, confundir o causar daño.

Mal-información = información verdadera + intención de causar daño

Discursos de odio[2]

Los discursos de odio son el uso de un lenguaje discriminador con respecto a una persona o grupo sobre la base de su identidad, lo que incluye su religión, etnicidad, nacionalidad, habilidad, género u orientación sexual. A menudo forman parte de un esfuerzo de manipulación más amplio.

Propaganda[3]

La propaganda es información diseñada para promover un objetivo, acto o resultado político. A menudo involucra la desinformación, pero también puede usar hechos, información robada o medias verdades para convencer a las personas. Frecuentemente hace llamados emocionales en lugar de concentrarse en pensamientos o argumentos racionales. La propaganda está usualmente asociada con actores afiliados al Estado, pero también puede ser propagada por otros grupos y personas.

Términos afines[4]
Discurso peligroso

Según el Dangerous Speech Project, el “discurso peligroso” es toda forma de expresión (habla, texto o imágenes) que puede incrementar el riesgo de que su público apruebe o participe en la violencia cometida contra miembros de otro grupo”. Este concepto brinda un marco constructivo con que reflexionar acerca de los discursos de odio que es probable provoquen violencia. Las señales de un discurso peligroso incluyen la deshumanización (referirse a la gente como insectos, bacterias, etc.) y decirles que enfrentan una amenaza mortal proveniente de un grupo minoritario desfavorecido.

Fake News

el término “fake news” (noticias falsas) no cuenta con una definición aceptada y es empleado erróneamente como un sinónimo de desinformación. Se ha popularizado en los últimos años y a menudo se le usa para desacreditar la información que uno encuentra desfavorable independientemente de su veracidad. Así, los términos “misinformación”, “desinformación” o “mal-información” debieran usarse en lugar de “fake news”.

 

Definiciones

Astroturfing: el intento de dar la impresión de un difundido apoyo o interés de base a una política o idea usando cuentas falsas en línea, como redes de bots o grupos de presión falsos.

Bots: un bot es un programa de software que efectúa tareas automatizadas y repetitivas. En el caso de los medios sociales, un bot podría referirse a una cuenta automatizada en dichos medios.

Click Bait: el título sensacionalista o engañoso de un artículo, enlace o thumbnail (miniatura), diseñado para hacer que los usuarios vean el contenido.

Ciberviolencia y ciberbullying: la ciberviolencia se refiere a actos de abuso usando medios digitales. El ciberbullying se refiere a la ciberviolencia que es recurrente y que está caracterizada por una dinámica de poder desbalanceada.

Deepfake: fotografías o videos que han sido alterados o fabricados íntegramente mediante aprendizaje automático para crear una falsa representación de algo, como un político que hace una declaración imaginada. El uso de deepfakes para confundir a los votantes durante los periodos electorales fabricando declaraciones de los candidatos y funcionarios electorales, es un excelente ejemplo de manipulación de la información.

Doxxing: la publicación de información privada o identificadora de una persona en línea con intención maliciosa, en especial la información personal sensible.

Information Warfare: el uso de las TIC como los medios sociales para influir o debilitar a un contrincante, lo que incluye el uso de la desinformación y la propaganda.

Trolling: la creación intencional de discordia en un espacio de discusión en línea comenzando peleas entre los usuarios, o molestando en general a la gente publicando mensajes inflamatorios, insultando o dando mensajes fuera de tema.

Filtros de subir archivos: programas de computadora automatizados que escanean los contenidos subidos a una plataforma en línea antes de que sean publicados. Estos filtros los usan las plataformas de medios sociales para identificar contenidos que violan los términos de servicio de las compañías, como materiales de abuso sexual infantil (CSAM).

Contenidos generados por usuarios (UGC): todo contenido como imágenes, videos, textos y audios que han sido publicados por los usuarios en plataformas en línea.

Viralidad: la tendencia de una imagen, video o nota de información a circular rápida y ampliamente en las plataformas en línea. Cuando el contenido se hace “viral” a menudo se pierde el importante contexto que rodea a la información como su fuente, autor y fecha de publicación (lo que se conoce como “colapso del contexto”), distorsionando potencialmente la forma en que la información es recibida e interpretada por quienes la ven.

Para definiciones adicionales véase el glosario de desinformación, del Disinfo Lab de la UE, que es una colección de 150+ términos con que entender el desorden de la información.

¿De qué modos la manipulación de la información trastorna y distorsiona el ecosistema de la información?

La manipulación de la información no es una amenaza nueva, pero se ha ampliado en la era digital. Las plataformas de medios sociales y los algoritmos que las sustentan facilitan la propagación de la información —lo que incluye información falsa— a velocidades sin precedentes. A medida que los ciudadanos del mundo pasan a depender de los medios sociales para la comunicación personal, el consumo de noticias y en general desarrollar una comprensión cotidiana de qué está sucediendo en el mundo, se van haciendo cada vez más vulnerables a la manipulación de información en dichas plataformas.

Aunque las plataformas de medios sociales populares como Facebook, X (antes Twitter) y YouTube son criticadas a menudo por su papel en facilitar la manipulación de la información, este problema frecuentemente también prevalece en otras plataformas como Instagram, TikTok, Reddit y hasta Pinterest. La manipulación de la información es también común en apps de mensajería encriptadas y no encriptadas como LINE, Telegram, WhatsApp, Facebook Messenger, Signal, WeChat y Viber. El surgimiento de diversos actores comerciales que ofrecen desinformación como servicio hace que para las compañías de medios sociales sea más duro detectar y tomar acción contra la manipulación de la información, como trols contratados a los que se paga para contaminar la esfera de la información. La distinción entre cuentas automatizadas de bots y los contenidos curados por humanos está asimismo haciéndose menos clara, y algunos estudios sugieren que menos del 60% del tráfico global en la web es humano. Consúltese el recurso sobre los medios sociales para mayor información acerca de cómo es que el modelo de ingresos de muchas plataformas de medios sociales podría desincentivar aún más la eliminación proactiva de la misinformación y la desinformación y el comportamiento no auténtico.

Entrenamiento de medios para periodistas en Sviatogirsk, Ucrania. Los derechos humanos internacionales brindan un marco para balancear la libertad de expresión y otros derechos. Crédito de la fotografía: UCBI USAID.

Las investigaciones han mostrado que los contenidos falsos y desorientadores tienden a llegar a los públicos en línea con mayor rapidez que la información basada en hechos sobre el mismo tema. Un estudio sobre la propagación de falsedades, por ejemplo en X, halló que una noticia falsa tendía a alcanzar un público de 1,500 personas seis veces más rapido que una precisa. ¿Por qué? Tras las evaluaciones iniciales de la desinformación que se concentraban en su oferta —lo que incluye la forma en que la internet y los medios sociales han incrementado el alcance, la velocidad y la magnitud de la desinformación—, los investigadores dirigieron su atención a la demanda de desinformación. Se encontró que la psicología humana tiene un papel en el consumo de información que refuerza los puntos de vista y sesgos existentes, evoca una fuerte respuesta emociona, y/o demoniza a los ‘exogrupos. Las plataformas digitales que jerarquizan y recomiendan contenidos para optimizar el compromiso y el tiempo pasados en las plataformas crean “bucles de retroalimentación degenerados,” que amplifican y agravan estas tendencias.

Las innovaciones en inteligencia artificial generativa, lo que incluye el lanzamiento de ChatGPT y de chatbots avanzados similares a finales de 2022, introdujeron oportunidades adicionales para la manipulación de la información al hacer que la desinformación sea más barata y fácil de producir para un número aún más grande de teóricos de la conspiración y actores malignos. Estos riesgos más grandes se deben en parte a la capacidad de las herramientas de IA generativa para “adaptar el lenguaje para que calce con ciertos contextos y localice formas de hablar”, así como para “multiplicar las falsas narrativas con el mismo mensaje redactado de múltiples formas, lo que podría elevar la cantidad de falsos contenidos [en línea] y hacer que sea difícil medir su viralidad”. La IA generativa puede también usarse para hacer que las cuentas automatizadas de bots suenen más humanas, y para crear fotos de perfil falsas y que hagan que otras formas de medios sintéticos como los “deepfakes” se vean aún más realistas.

[7] Páginas de periódicos cubren una pared en Etiopía. La perturbación del modelo empresarial publicitario ha sido un desastre en cámara lenta para las organizaciones de noticias de todo el mundo. Crédito de la fotografía: Jessica Nabongo.

Las campañas de manipulación de la información en línea pueden ser facilitadas y exacerbadas por prácticas de moderación del contenido defectuosas y por modelos de ingresos basados en publicidad digital.

Moderación del contenido

La incontrolada propagación de mis-información y desinformación, discursos de odio y acoso en las plataformas de los medios sociales han colocado los reflectores sobre sus políticas y procedimientos de moderación de contenidos, que a menudo se implementan con poca o ninguna supervisión. Las plataformas de los medios sociales han sido criticadas por retirar demasiado contenido, por no retirar suficiente contenido, por preparar algoritmos que no logran detectar los matices de los discursos de odio y la misinformación, y por emplear moderadores humanos que sufren por su baja paga, malas condiciones laborales, y el trauma inducido por el nocivo contenido que revisan. En medio de una cacofonía de voces con opiniones sobre qué contenidos debieran y no debieran permitirse en las plataformas, las compañías de medios sociales luchan por encontrar el equilibrio correcto entre la libre expresión absoluta y la protección de los usuarios de la manipulación de la información. Leyes como la Ley de servicios digitales la Unión Europea da a los legisladores una herramienta con que hacer que las plataformas sean responsables por su papel en facilitar la manipulación de la información, y presenta “una nueva forma de pensar acerca de la moderación de contenidos que es particularmente valiosa para la comunidad contra la desinformación”.

Para mayor información sobre la moderación de contenidos véase el recurso Medios sociales[8].

Modelos de publicidad digital

La publicidad digital ha hecho posible el autofinanciamiento de páginas web y blogs que comparten contenidos detestables, incendiarios y/o engañosos. La publicidad programática, que depende de tecnología automatizada y herramientas algorítmicas para comprar y vender avisos, es especialmente problemática porque los anunciantes podrían terminar financiando estos canales sin ser jamás conscientes de que sus avisos aparecen en ellos.

El movimiento en línea Sleeping Giants surgió para abordar este problema, alertando a las compañías cuando su publicidad aparece junto a contenidos inflamatorios o controversiales. Check My Ads es otro recurso que ofrece servicios para ayudar a prevenir que las marcas queden asociadas con la desinformación o con discursos peligrosos. La Ads for News initiative apoya al periodismo local brindando a las marcas y compradores de medios una lista curada de inclusión global, con páginas web de noticias confiables a las cuales se ha filtrado para excluir las desinformación y otros contenidos no idóneos para las marcas.

Para mayor información sobre la publicidad digital véase el recurso de medios sociales[9].

La manipulación de la información es una práctica común de los regímenes autoritarios, que usan los medios sociales y tradicionales para sembrar el caos y la confusión, así como minar los procesos democráticos. Las entidades gubernamentales en Rusia ya antes se han dedicado a manipular la información en las elecciones en Europa y otros lugares, aprovechando cuentas de bots y granjas de troles para compartir y amplificar la desinformación en los medios sociales, con miras a profundizar las divisiones sociales y políticas ya existentes dentro de los países fijados como objetivo.

La práctica del astroturfing por parte de gobiernos extranjeros, grupos de interés y hasta de anunciantes es una forma común de manipulación de la información. El astroturfing se refiere al uso de múltiples identidades (bots) en línea y falsos grupos de lobby para crear la falsa impresión de un amplio apoyo de base para una política, idea o producto. Esta técnica puede usarse para desviar la atención de los medios o establecer una narrativa particular en torno a un acontecimiento tempranamente en el ciclo noticioso. Otras tácticas de manipulación de la información pueden incluir la manipulación de los buscadores, páginas web falsas, trolling, operaciones de robo y filtración de datos, suplantación de cuentas y censura.
La manipulación de la información no sólo tiene lugar en espacios en línea. Puede propagarse también a través de las fuentes de medios tradicionales (como la televisión, la radio y los canales impresos), así como a través de la academia. Por ejemplo, los medios de comunicación tradicionales podrían inadvertidamente amplificar contenidos creados como parte de una campaña de manipulación de la información, si dichos contenidos fueron compartidos por una figura política importante, si el contenido es particularmente sensacionalista y es probable que atraiga al público, o incluso a través de la cobertura que busca cuestionar el contenido de la campaña de manipulación. Un actor sofisticado que se dedique a manipular la información podría capturar medios noticiosos prominentes u otorgar subvenciones a entidades de investigación para que produzcan análisis que respaldan sus objetivos.

Inicio

¿De qué modo la manipulación de la información afecta el espacio cívico y la democracia?

Vendedores de periódicos preparan sus puestos en Rangún, Myanmar. En todo el mundo los gobiernos vienen promoviendo campañas de manipulación de la información centradas en los defensores de los derechos humanos y las comunidades marginadas. Crédito de la fotografía: Richard Nyberg/USAID.

La manipulación de la información es tanto un ataque a la confianza como a la verdad. Un entorno informativo cuestionado puede contribuir a disminuir el nivel de confianza pública, a medida que los ciudadanos no pueden o no desean distinguir entre las fuentes de información legítimas y las que no lo son. El vaciamiento de la industria tradicional de los medios y el incremento en el consumo de noticias a través de los medios sociales contribuyen a esta tendencia, en particular en contextos en donde la alfabetización informacional es baja y las instituciones democráticas débiles. Durante las crisis de salud, desastres naturales y otras emergencias, la falta de confianza del público en combinación con la incontrolada misinformación y desinformación podrían estorbar los esfuerzos de respuesta y amenazar la salud y el bienestar de los ciudadanos.

Los gobiernos intolerantes vienen invirtiendo cada vez más en campañas de manipulación de la información focalizadas en la sociedad civil, los defensores de los derechos humanos y los grupos marginados. En Myanmar, por ejemplo, el personal militar estuvo involucrado en una campaña sistemática en Facebook para difundir propaganda y comentarios incendiarios acerca de la minoría rohinyá del país, que es mayormente musulmana, lo que finalmente condujo a una difundida violencia offline y a la más grande migración humana forzada de la historia reciente. El acoso y trolling de periodistas y candidatos políticos (sobre todo mujeres) en las plataformas digitales podría provocar la autocensura o su alejamiento definitivo de los espacios en línea, lo que tiene un efecto negativo sobre la diversidad de voces en la esfera informativa.

De otro lado, los gobiernos desde Singapur hasta Kenia o Camboya también han implementado y usado leyes de “fake news” para restringir la libre expresión y amordazar el disenso en nombre de combatir la manipulación de la información. Durante la pandemia de COVID-19, un periodista egipcio que criticó la respuesta dada por el gobierno fue acusado de estar propagando noticias falsas, mal uso de los medios sociales y de haberse unido a un grupo terrorista, demostrando así que el uso demasiado entusiasta de tales leyes podría facilitar la censura. Estas leyes contra las “fake news” pueden a veces extenderse más allá de las fronteras nacionales, como sucediera en el caso de la ONG malasia cuya página web fuera bloqueada en Singapur después de que publicara un artículo acerca de los prisioneros del país condenados a muerte. Las disposiciones legales que permiten restringir contenidos pueden ser incluidas en diversas leyes acerca del cibercrimen, la difamación, la tecnología de la información, la sedición, los medios sociales etc.

Al igual que en el caso de la guerra entre Rusia y Ucrania (a la cual algunos han denominado la primera “guerra de los medios sociales” real), los conflictos ahora se libran no sólo en los campos de batalla sino también en los medios sociales y otros espacios en línea. La campaña informativa que Rusia desplegó en contra de Ucrania incluyó el uso de propaganda, cuentas falsas en los medios sociales y videos manipulados para sembrar divisiones, generar confusión y en general erosionar el respaldo internacional a Ucrania. Estos esfuerzos tuvieron más éxito en persuadir a la opinión pública en algunos países que en otros, pero en general guardan lecciones importantes acerca del papel de la desinformación para futuros conflictos internacionales.
Manipulación de la información y elecciones


El uso estratégico de información falsa, exagerada o contradictoria durante las elecciones es una poderosa herramienta con la que socavar los principios democráticos. La frontera deliberadamente desdibujada entre la verdad y la ficción amplifica la confusión de los votantes y devalúa el debate político basado en hechos. Los rumores, habladurías y acoso en línea se utilizan para dañar reputaciones políticas, exacerbar las divisiones sociales, movilizar partidarios, marginar mujeres y grupos minoritarios, y minar el impacto de los agentes de cambio.

Los contenidos que buscan desalentar o impedir que los ciudadanos voten pueden tomar el aspecto de información imprecisa acerca de la fecha de una elección, o de intentos de persuadir a la gente de que una elección está arreglada y de que su voto no importa. Los contenidos de supresión de votantes que cuestionan la legitimidad de los procesos electorales o la seguridad de los sistemas de votación, pueden también sentar las bases para cuestionar los resultados electorales puesto que la manipulación de la información degrada la confianza en los cuerpos que manejan las elecciones. Estos contenidos no necesitan de intención maliciosa alguna pues por ejemplo, alguien que comparte inadvertidamente información incorrecta acerca de la fecha límite para la inscripción de los votantes, podría también confundir a otros ciudadanos e impedir que sean capaces de votar en la elección.

Distintos actores tienen distintos objetivos para influir las narrativas en el transcurso de una elección. Por ejemplo, los partidos y campañas políticos pueden usar la mis-información, desinformación, mal-información o propaganda para desacreditar a la oposición o manipular el discurso político de tal modo que sirva a su agenda de campaña, en tanto que un adversario extranjero podría buscar influir en el resultado electoral, promover intereses nacionales o sembrar el caos. Una campaña coordinada de manipulación de la información en WhatsApp —que incluyó fotografías alteradas, clips de audio manipulados y falsas “verificaciones de hechos” que desacreditaban a noticias auténticas— tuvo un papel preocupante en impulsar al candidato de extrema derecha Jair Bolsonaro a la presidencia del Brasil en 2018 (para mayor información acerca del papel de la manipulación de la información en el Brasil véase la sección de estudios de caso).

En última instancia, las campañas de manipulación de la información pueden desestabilizar entornos políticos, exacerbar la posible violencia relacionada con las elecciones, pervertir la voluntad de los votantes, afianzar a los autoritarios y minar la confianza más en general en los sistemas democráticos. En muchas democracias frágiles, las instituciones democráticas vigorosas que podrían ayudar a contrarrestar el impacto de las noticias falsas y las campañas más amplias de manipulación de la información, como unos medios fuertes e independientes, partidos políticos ágiles y sofisticadas organizaciones de la sociedad civil, siguen en estado emergente.

Inicio

¿Qué puede hacerse para enfrentar la manipulación de la información?

Vecinos escuchan a Ratego FM en el condado de Siaya, Kenia. Las OSC se encuentran en posición única para facilitar las iniciativas educativas y de extensión que empoderan a las personas para que reconozcan la desinformación. Crédito de la fotografía: Amunga Eshuchi.
Verificación de los hechos

Una herramienta que los periodistas, investigadores y la sociedad civil pueden usar para contrarrestar la manipulación de la información es la verificación de los hechos, esto es el proceso de comprobar la información y brindar análisis precisos y no sesgados de una afirmación. En los últimos años han surgido cientos de iniciativas de verificación de los hechos en la sociedad civil en torno a puntos críticos específicos, siendo las lecciones aprendidas así como la infraestructura construida en torno a dichos puntos críticos aplicada luego a otros problemas que impactan estos mismos ecosistemas informativos. Durante las elecciones generales mexicanas de 2018, la iniciativa Verificado 2018 de la sociedad civil se asoció con Pop-Up News, Animal Político, AJ+ Español y 80 otros socios para verificar los hechos y distribuir información relacionada con las elecciones, especialmente entre los jóvenes. Otras iniciativas exitosas de verificación de hechos en todo el mundo son Africa Check, el Cyber News Verification Lab de Hong Kong, BOOM en la India, Checazap en Brasil, la Fact Check archive del Centre for Democracy and Development en África occidental, y la iniciativa Check de Meedan en Ucrania.

Las compañías de medios sociales también han invertido en equipos y tecnologías de verificación de hechos, y han construido sociedades con agencias noticiosas para responder a los bulos, teorías de la conspiración, rumores y propaganda que circulan en sus plataformas.

Prebunking (desmentidos preventivos)

La verificación de los hechos o “debunks” (desmentidos) son eficaces, pero tienden a tener un uso intensivo de trabajo y no son leídas por todos. El “prebunking” (desmentido preventivo) es un enfoque alternativo basado en la idea de vacunar a la gente en contra de información falsa o engañosa mostrándole ejemplos de manipulación de la información, de modo tal que en el futuro estarán mejor equipados para identificarlas y cuestionarlas. Según First Draft hay tres tipos principales de prebunks:

  1. Basados en hechos: corrigen una afirmación o narrativa específica falsa
  2. Basados en la lógica: explican las tácticas de manipulación usadas
  3. Basados en fuentes: señalan las fuentes de información malas

En 2022, Google lanzó una campaña de prebunking en Polonia, la República Checa y Eslovaquia para diseccionar distintas afirmaciones falsas acerca de los refugiados ucranianos. Los investigadores también han creado juegos en línea que permiten a los jugadores simular ser trols que propagan fake news, con miras a mejorar la comprensión que la gente tiene de cómo se construyen las campañas de manipulación de la información, incrementando finalmente su escepticismo para con ellas.

Educación mediática

Los programas de educación mediática pueden ayudar a incrementar la capacidad de los ciudadanos para distinguir contenidos factuales y falsos o engañosos, alentando su uso de habilidades de pensamiento crítico, al mismo tiempo que consumen contenidos de medios tradicionales y en línea. Estos programas pueden también elevar la conciencia de que la manipulación de la información daña de modo desproporcionado a las mujeres y grupos marginados. La educación mediática es un proceso que dura toda la vida, y debiera no ser sino una parte de un equipo de herramientas completo para responder a la manipulación de la información.

La iniciativa Learn to Discern (L2D) de IREX busca construir la resiliencia de las comunidades a la desinformación, la propaganda y los discursos del odio en los medios tradicionales y en línea. Luego de pilotear un currículo de educación mediática en salones de clase, bibliotecas y centros comunitarios en Ucrania, L2D fue extendida a otros países, entre ellos Serbia, Túnez, Jordania e Indonesia. Las iniciativas globales como el marco Web Literacy de la Fundación Mozilla, y la biblioteca de educación digital de Meta, brindan acceso a materiales de educación mediática, y ofrecen una oportunidad para que los usuarios aprendan cómo navegar de modo eficaz el mundo virtual.

Intervenciones en las plataformas

Las plataformas pueden aprovechar las características de diseño para ayudar a mitigar la manipulación de la información. Por ejemplo, algunas plataformas envían estratégicamente artículos con información correctiva a los usuarios que comparten contenidos falsos. Durante la pandemia de COVID-19, Facebook mostraba mensajes a los usuarios que interactuaban con contenidos falsos, y también los redirigía a fuentes autorizadas como la Organización Mundial de la Salud (OMS) o los Centros para el Control y Prevención de las Enfermedades (CDC). Estas intervenciones, conjuntamente con las políticas y elementos diseñados para limitar la remisión de contenidos virales, buscan aminorar el impacto de la manipulación de la información.

Inteligencia de fuentes abiertas (OSINT)

La inteligencia de fuentes abiertas es un método de recolección de datos e información de fuentes públicamente disponibles, entre ellas medios sociales, páginas web y artículos de noticias. La recolección y el análisis de información transparente, liderada por voluntarios y colectiva (crowdsourced) puede contribuir al desmentido de falsedades y mitos, lo que incluye a contextos como la guerra ruso-ucraniana. El grupo de periodismo investigativo Bellingcat se ha establecido como un líder en el uso de OSINT para reportar acerca de conflictos y abusos de derechos humanos, como el uso de armas químicas en la guerra civil de Siria.

Contradiscurso

El contradiscurso por lo general incluye toda respuesta directa al lenguaje de odio o dañino y busca socavarlo. Según el Dangerous Speech Project, hay dos tipos de contradiscurso: campañas organizadas de contra-mensajes y respuestas orgánicas espontáneas. El contradiscurso puede a veces buscar educar al perpetrador del contenido nocivo, pero usualmente busca más bien reconfigurar la discusión en línea para los espectadores, cambiar el tono en los espacios públicos en línea, y desplazar los contenidos nocivos con mensajes positivos e inclusivos. Un ejemplo del contradiscurso en acción es #jagärhär (#Iamhere), un grupo de Facebook de unas 75,000 personas con sede fundamentalmente en Suecia, que se ha movilizado para agregar notas positivas en las secciones de comentarios en donde estaban propagándose el odio y la misinformación.

Inicio

¿Qué puede hacer la sociedad civil para limitar la manipulación de la información?

La información confiable y auténtica es crucial para una gobernanza transparente, inclusiva y que rinda cuentas, y para la capacidad de la ciudadanía para ejercer sus derechos y responsabilidades cívicos. La sociedad civil, en particular, tiene un importante papel que desempeñar en limitar los efectos de la manipulación de la información y en fortalecer la resiliencia de los ecosistemas de información locales.

  1. En primer lugar, la sociedad civil puede actuar como ‘watchdog’. Al monitorear de cerca los medios sociales, la sociedad civil puede identificar y exponer las campañas de manipulación de la información que afectan a sus comunidades locales a medida que van apareciendo. Para este trabajo es crucial el acceso continuo de investigadores tanto académicos como no académicos a los datos de los medios sociales.
  2. En segundo lugar, la sociedad civil está singularmente ubicada para implementar iniciativas educativas y de extensión, entre ellos los programas de educación mediática, que empoderan a las personas para que reconozcan la manipulación de la información. Esto podría involucrar la coordinación con colegios, bibliotecas, centros comunitarios y otras partes interesadas.
  3. Tercero, la sociedad civil puede aplicar presión a las compañías tecnológicas, empresas y anunciantes que alojan, apoyan o incentivan, voluntaria o involuntariamente, a los creadores de contenidos falsos o engañosos.
  4. Cuarto, la sociedad civil puede trabajar con los gobiernos para reemplazar las “leyes anti fake news” y otras amplias restricciones de contenidos, con leyes menos restrictivas que combatan la desinformación al mismo tiempo que protegen la libertad de expresión.

Inicio

Preguntas

Hágase las siguientes preguntas si está intentando entender cómo mitigar los riesgos de la manipulación de información en su trabajo:

  1. ¿Cómo es que mi organización verifica la información? ¿Qué controles internos tiene para prevenir la propagación inadvertida de contenidos falsos o engañosos?
  2. ¿Qué capacitaciones o programas internos debiéramos efectuar para entender mejor los riesgos asociados con la manipulación de información?
  3. ¿Cómo podríamos responder a una campaña de manipulación de la información focalizada en su organización o sus asociados?
  4. ¿Qué estrategias de distribución de contenidos —más allá de las publicaciones— podría considerar para prevenir y responder a la manipulación de la información?
  5. Cuando publicamos algo errado, ¿cuál es nuestro proceso para hacer correcciones?
  6. ¿Qué protocolos de seguridad debieran existir en caso un miembro del personal, participante o asociado sea blanco de desinformación, violencia en línea, acoso, doxxing, etc.?
  7. ¿Qué programas o iniciativas podemos crear e implementar para mejorar la educación mediática en nuestra comunidad?

Inicio

Estudios de caso

Operaciones de información rusas en Ucrania

Reality Built on Lies: 100 Days of Russia’s War of Aggression in Ukraine
(La realidad construida sobre mentiras: 100 días de la guerra de agresión rusa en Ucrania)

“Tal vez la característica más significativa de la campaña de desinformación y manipulación de la información del Kremlin, que tiene como objetivo a Ucrania en la guerra de agresión rusa, es su adaptabilidad a nuevas realidades. En otras palabras, a lo largo de los últimos cien días, el Kremlin ha ido desplazando constantemente las metas de su desinformación, en un intento de redefinir cuáles son los objetivos de la ‘operación especial’ y qué podría ser un ‘éxito’ para las fuerzas armadas rusas que han invadido Ucrania… Además de ir desplazando las metas del éxito, los canales de desinformación controlados por el Estado ruso también postulan activamente unas falsas narrativas ‘humanitarias’ con otra finalidad. A medida que el mundo inevitablemente se enteraba de las insensatas atrocidades que Rusia cometía en Ucrania, que cada vez más venían a ser crímenes de guerra, el ecosistema de desinformación pro-Kremlin trabajaba a toda máquina para negar, confundir, distraer, consternar y echarle la culpa a otros”.

La desinformación de género socava los derechos de las mujeres y la democracia

Monetizando la misoginia

La iniciativa global #ShePersisted entrevistó a más de cien dirigentes y activistas políticas mujeres de todo el mundo, en un intento de comprender los patrones, el impacto y el modus operandi de las campañas de desinformación de género contra las mujeres en la política. Los estudios de caso sobre Brasil, Hungría, India, Italia y Túnez exploran cómo la desinformación con género ha sido usada por los movimientos políticos, y a veces por el mismo gobierno, para socavar la participación política de las mujeres, así como para debilitar las instituciones democráticas y los derechos humanos. La investigación crucialmente también examinó las responsabilidades y respuestas que tanto los actores estatales como las plataformas digitales tomaron para abordar este problema, o, más a menudo, que no tomaron.

Desinformación del COVID-19

Disinfodemic: Deciphering COVID-19 Disinformation(Desinfodemia: descifrando la desinformación del COVID-19)

“Al contaminar la comprensión pública de distintos aspectos de la pandemia y sus efectos, la desinformación en torno al COVID-19 aprovechó una amplia gama de formatos. Muchos fueron perfeccionados en el contexto de las campañas antivacunas y de la desinformación política. Frecuentemente meten falsedades de contrabando en la conciencia de la gente al concentrarse en las creencias antes que en la razón, y en los sentimientos en lugar de la deducción. Dependen de los prejuicios, la polarización y la política de identidad, así como de la credulidad, el cinismo y la búsqueda de las personas de una simple explicación ante la gran complejidad y el cambio. La contaminación se propaga en textos, imágenes, videos y sonidos”.

¿Está China teniendo éxito en moldear las narrativas globales acerca del COVID-19?

Is China Succeeding at Shaping Global Narratives about COVID-19?(¿Está China teniendo éxito en moldear las narrativas globales acerca del COVID-19?)

“Ante las críticas a su manejo de la pandemia, el gobierno chino y sus agentes aprovecharon los medios sociales, Twitter en particular, para propagar sus narrativas y propaganda en el extranjero… A comienzos de 2021, los medios chinos difundieron afirmaciones según las cuales las vacunas de Pfizer y Moderna eran riesgosas y hasta letales, resaltando las extremadamente raras muertes o enfermedad repentinas de personas que habían recibido la vacuna en Francia, Alemania, México, Noruega y Portugal… Taiwán fue otro blanco importante de las tácticas de desinformación chinas del Covid-19: algo nada sorprendente dado el persistente uso que Beijing hace de la desinformación contra la isla. China buscó repetidas veces poner en duda el éxito de Taipéi en restringir la propagación del virus… Además de criticar y propagar desinformación acerca del manejo que otros países hicieron de la pandemia, los medios de comunicación y diplomáticos chinos amplificaron las teorías conspirativas infundadas de que el SARS-CoV-2 se originó fuera de China”.

La propagación de la desinformación climática a las comunidades hispano hablantes

Los Eco-Ilógicos

Green Latinos, con el respaldo de Friends of the Earth, le encargó a Graphika que estudiara cómo era que las narrativas falsas y engañosas del cambio climático llegaban a las comunidades hispano hablantes. El análisis buscaba entender cómo era que estas narrativas se propagaban a través del ecosistema en línea de los usuarios hispano hablantes de internet, los grupos y personas que las siembran y difunden, y las tácticas que estos actores emplean. Con su análisis, Graphika identificó una extendida red de usuarios en América Latina y España que consistentemente amplifican las narrativas de desinformación climática en español. Aunque algunas de estas cuentas se concentraban específicamente en conversaciones relacionadas con el clima, la mayoría promovía narrativas ideológicamente de derecha, algunas de las cuales tocaban el cambio climático. Muchas de las narrativas identificadas también se superponían con las conversaciones en línea ya existentes que no guardaban relación con el cambio climático, como la misinformación en torno al COVID-19 o las teorías de la conspiración acerca de una organización gobernante secreta de unas elites globales totalitarias.

Frenando la manipulación de la información en las elecciones africanas

Fact from Fiction: Curbing Mis/disinformation in African Elections(Separando la realidad de la ficción: conteniendo la mis/desinformación en las elecciones africanas)

“La misinformación y desinformación relacionadas con las elecciones buscan fundamentalmente manipular la toma de decisión de los electorados, sembrar dudas acerca del proceso electoral y deslegitimar el resultado de las elecciones. Esta es una tendencia peligrosa, particularmente en democracias frágiles en donde esto es capaz de incitar el odio y provocar los estallidos de violencia. La misinformación y la desinformación fueron factores importantes en la escalada de la violencia postelectoral en Kenia tras las elecciones generales de 2017. De igual modo en 2020, la República Centroafricana experimentó una letal violencia postelectoral debido a una elección cuestionada, los esfuerzos de desinformación focalizada y un lenguaje divisivo. Lo mismo sucedió en Costa de Marfil, en donde 50 personas fueron muertas en la violencia política e intercomunal que estalló durante la elección presidencial del 31 de octubre de 2020”.

Para un contexto adicional consúltese también el informe The Disinformation Landscape in West African and Beyond, publicado por el Atlantic Council en junio de 2023.

Inicio

Referencias

A continuación aparecen los trabajos citados en este recurso.

Recursos adicionales

Inicio

Categories

Digital Development in the time of COVID-19