Inteligencia artificial y aprendizaje automático

¿Qué son la IA y el AA?

La inteligencia artificial (IA) es un campo de las ciencias de la computación dedicado a resolver problemas cognitivos usualmente asociados con la inteligencia humana como el aprendizaje, la resolución de problemas y el reconocimiento de patrones. Dicho de otro modo, IA es un término de múltiple contenido al cual se usa para describir nuevos tipos de software que pueden acercarse a la inteligencia humana. No hay una única definición precisa y universal de IA.

El aprendizaje automático (AA) es un subconjunto de IA. Esencialmente es una de las formas en que las computadoras “aprenden”. El AA es un enfoque de IA basado en algoritmos entrenados para que desarrollen sus propias reglas. Esta es una alternativa a los programas tradicionales de computación, en los cuales las reglas deben ser programadas a mano. El aprendizaje automático extrae patrones de los datos y los coloca en distintos conjuntos. Se ha descrito al AA como “la ciencia de hacer que las computadoras actúen sin haber sido programadas explícitamente”. Dos breves videos nos dan explicaciones simples de IA y AA: ¿Qué es la inteligencia artificial? | Explicación de la IA y ¿Qué es el aprendizaje automático?

Otros subconjuntos de AI son el procesamiento de voz, procesamiento de lenguaje natural (PLN), robótica, cibernética, visión artificial, sistemas expertos, sistemas de planificación y computación evolutiva.

artificial intelligence, types

El diagrama anterior muestra los muchos tipos distintos de campos tecnológicos que la IA comprende. Esta última puede referirse a un amplio campo de tecnologías y aplicaciones. El aprendizaje automático es una herramienta empleada para crear sistemas de IA. Cuando nos referimos a esta podemos estar aludiendo a una o varias de estas tecnologías o campos. Las aplicaciones que utilizan IA, como Siri o Alexa, usan múltiples tecnologías. Si, por ejemplo, le decimos a Siri: “Siri, muéstrame la figura de una banana”, usará el procesamiento del lenguaje natural (búsqueda de respuestas) para entender qué se le está preguntado, y luego usará la visión digital (reconocimiento de imágenes) para hallar una banana y mostrársela.

Como ya se indicó, la IA no cuenta con una definición universal. Hay muchos mitos en torno a ella, desde el temor de que controle el mundo esclavizando a los humanos, hasta la esperanza de que algún día se la pueda usar para curar el cáncer. Esta introducción busca brindar una comprensión básica de la inteligencia artificial y el aprendizaje automático, así como esbozar algunos de los beneficios y riesgos que la IA presenta.

Definiciones

Algoritmo: se define a un algoritmo como “una serie finita de instrucciones bien definidas que una computadora puede implementar para resolver un conjunto específico de problemas computacionales”. Los algoritmos son procedimientos nada ambiguos y paso a paso. Un ejemplo simple de un algoritmo sería una receta; otro sería un procedimiento para encontrar al número más grande en un conjunto numérico ordenado aleatoriamente. Un algoritmo puede o bien ser creado por un programador, o sino ser generado automáticamente. En este último caso lo será utilizando datos mediante el AA.

Toma de decisiones algorítmica/Sistema de decisión algorítmica (SDA): los sistemas de decisión algorítmica emplean análisis de datos y estadísticos para tomar decisiones automatizadas, como por ejemplo establecer si una persona es elegible para un beneficio o una pena. Entre los ejemplos de sistemas de decisión algorítmica completamente automatizados tenemos al control electrónico de pasaportes en los aeropuertos, o una decisión automatizada tomada por un banco para otorgar a un cliente un préstamo sin garantía, sobre la base de su historial crediticio y su perfil de datos en el banco. Las herramientas de ayuda a los conductores que controlan el freno, acelerador, conducción, velocidad y dirección de un vehículo son ejemplos de SDA semiautomatizados.

Big Data (macrodatos): hay muchas definiciones del “big data”, pero podemos por lo general pensarlos como conjuntos de datos extremadamente grandes que al ser analizados pueden revelar patrones, tendencias y asociaciones, entre ellos los que se refieren al comportamiento humano. La Big Data se caracteriza por las cinco V: el volumen, velocidad, variedad, veracidad y valor de los datos en cuestión. Este video ofrece una breve introducción a los macrodatos y al concepto de las cinco V.

Class label (etiqueta de clase): una etiqueta de clase se aplica después de que un sistema de aprendizaje automático ha clasificado sus insumos; por ejemplo, establecer si un correo electrónico es spam.

Deep learning (aprendizaje profundo): el aprendizaje profundo es una red neural de tres o más capas que intenta simular el comportamiento del cerebro humano, lo que permite “aprender” de grandes cantidades de datos. Este tipo de aprendizaje impulsa muchas aplicaciones de IA que mejoran la automatización, como los asistentes digitales, los controles remotos de TV activados por la voz, y la detección de fraudes con tarjetas de crédito.

Data mining: (minería de datos) la minería de datos, también conocida como descubrimiento de conocimientos en los datos, es el “proceso de analizar densos volúmenes de datos para encontrar patrones, descubrir tendencias y obtener ideas acerca de cómo podemos emplear los datos”.

La IA generativa[1]: la IA generativa es un tipo de modelo de aprendizaje profundo que puede generar texto, imágenes y otros contenidos de gran cantidad a partir de los datos de entrenamiento. Para mayor información consúltese la sección sobre IA generativa.

Label (etiqueta): una etiqueta es lo que un modelo de aprendizaje automático predice, como el futuro precio del trigo, el tipo de animal mostrado en una imagen, o el significado de un clip de audio.

Large language model (modelo grande de lenguaje): una modelo grande de lenguaje (LLM) es “un tipo de inteligencia artificial que emplea técnicas de aprendizaje profundo y conjuntos de datos masivamente grandes para entender, resumir, generar y predecir contenidos nuevos”. Un LLM es un tipo de IA generativa que ha sido construida específicamente para ayudar a generar contenidos basados en textos.

Model0: un modelo es la representación de lo que un sistema de aprendizaje automático ha aprendido de los datos de entrenamiento.

Red neural: una red neural biológica (BNN) es un sistema en el cerebro que permite sentir estímulos y responder a ellos. Una red neuronal artificial (ANN) es un sistema de computación inspirado por su contraparte biológica en el cerebro humano. En otras palabras, una ANN es “un intento de simular la red de neuronas que conforman un cerebro humano, de modo tal que la computadora pueda aprender y tomar decisiones en forma humana”. Las ANN de gran escala conducen varias aplicaciones de IA.

Perfilamiento: el perfilamiento involucra el procesamiento automatizado de datos para desarrollar perfiles a los cuales se puede usar para tomar decisiones sobre las personas.

Robot: los robots son artefactos programables automatizados. Los que son plenamente autónomos (v.g., los vehículos autónomos) son capaces de operar y tomar decisiones sin el control humano. La IA permite a los robots sentir cambios en su entorno y adaptar sus respuestas y comportamientos en conformidad a ello, para así efectuar tareas complejas sin la intervención humana.

Scoring (puntuación): la puntuación, también llamada predicción, es el proceso mediante el cual un modelo de aprendizaje automático entrenado genera valores a partir de nuevos datos ingresados. Los valores o puntajes que son creados pueden representar predicciones de valores futuros, pero podrían asimismo representar una categoría o resultado probables. Cuando se la usa en relación con personas, la puntuación es una predicción estadística que establece si una persona encaja dentro de una categoría o resultado. Por ejemplo, un puntaje crediticio es un número extraído de un análisis estadístico que representa la solvencia crediticia de una persona.

Supervised learning: en el aprendizaje supervisado, los sistemas de AA son entrenados a partir de datos bien etiquetados. Usando inputs y outputs etiquetados, el modelo puede medir su precisión y aprender con el paso del tiempo.

Aprendizaje no supervisado: el aprendizaje no supervisado emplea algoritmos de aprendizaje automático para así encontrar patrones en conjuntos de datos no etiquetados, sin necesidad de la intervención humana.

Entrenamiento: en el aprendizaje automático, el, entrenamiento es el proceso de establecer los parámetros ideales que un modelo comprende.

 

¿Cómo operan la inteligencia artificial y el aprendizaje automático?

Inteligencia artificial

La inteligencia artificial es un enfoque transdisciplinario que combina ciencias de la computación, lingüística, psicología, filosofía, biología, neurociencias, estadística, matemática, lógica y economía para “entender, modelar y replicar los procesos de inteligencia y cognitivos”.

Las aplicaciones de IA existen en todo ámbito, industria y en distintos aspectos de la vida cotidiana. Dado que la IA es tan amplia, resulta útil pensarla como estando conformada por tres categorías:

  • La IA restringida o inteligencia artificial restringida (ANI) es un sistema experto en una tarea específica, como el reconocimiento de imágenes, jugar Go, o pedirle a Alexa o Siri que respondan una pregunta.
  • La IA fuerte o inteligencia artificial general (IAG) es una IA que iguala la inteligencia humana.
  • La superinteligencia artificial (ASI) es una IA que supera la capacidad humana.

Las técnicas modernas de IA vienen desarrollándose rápidamente, y sus aplicaciones ya están generalizadas. Sin embargo, estas aplicaciones actualmente solo existen en el campo de la “IA restringida”. La inteligencia artificial general y la superinteligencia artificial aún no han sido alcanzadas, y probablemente no lo serán en los próximos años o décadas.

Aprendizaje automático

El aprendizaje automático es una aplicación de la inteligencia artificial. Si bien a menudo encontramos ambos términos usados de modo intercambiable, el primero es un proceso mediante el cual se desarrolla una aplicación de IA. El proceso de aprendizaje automático involucra un algoritmo que efectúa observaciones basadas en los datos, identifica patrones y correlaciones en ellos, y utiliza el patrón o correlación para efectuar predicciones. La mayor parte de la IA actualmente en uso está conducida por el aprendizaje automático.

Así como resulta útil dividir la IA en tres categorías, así también podemos pensar al aprendizaje automático como tres técnicas diferentes: aprendizaje supervisado; aprendizaje no supervisado; y aprendizaje profundo.

Aprendizaje supervisado

El aprendizaje supervisado categoriza eficientemente a los datos según definiciones preexistentes encarnadas en un conjunto de datos que contiene ejemplos de entrenamiento con etiquetas asociadas. Tomemos el ejemplo de un sistema de filtrado de spam, al cual se está entrenando usando correos electrónicos de spam y que no son spam. El “input” en este caso son todos los mensajes que el sistema procesa. Luego de que los humanos han marcado a ciertos mensajes como spam, el sistema los clasifica en otra carpeta. El “output” es la categorización de los mensajes. El sistema encuentra una correlación entre la etiqueta “spam” y las características de los mensajes, como el texto en el “Asunto”, las frases en el cuerpo del mensaje o la dirección de correo o IP del remitente. Usando esta correlación, el sistema intenta predecir la etiqueta correcta (spam/no spam) que aplicar a todos los futuros mensajes que procese.

En este caso, “spam” y “no spam” son denominadas “etiquetas de clase”. La correlación que el sistema halló se llama un “modelo” o “modelo predictivo”. Podemos pensar al modelo como un algoritmo que el sistema de AA genera automáticamente empleando datos. Los mensajes etiquetados a partir de los cuales el sistema aprende son llamados “datos de entrenamiento”. La variable objetivo es la característica que el sistema está buscando o de la cual quiere saber más, en este caso es la condición de spam de un mensaje. A la “respuesta correcta”, por así decirlo, en la categorización del mensaje se la denomina el “resultado deseado” o el “resultado de interés”.

Aprendizaje no supervisado

El aprendizaje no supervisado involucra el que las redes neuronales encuentren una relación o patrón sin tener acceso a conjuntos de datos previamente etiquetados de parejas de input-output. Las redes neurales organizan y agrupan los datos por cuenta propia, encontrando patrones recurrentes y detectando desviaciones de dichos patrones. Estos sistemas tienden a ser menos predecibles que los que usan conjuntos de datos etiquetados, y se les aplica más a menudo en entornos que pueden cambiar con cierta frecuencia y no son estructurados o lo están en parte. Algunos ejemplos son:

  1. Un sistema de reconocimiento óptico de caracteres que puede “leer” textos escritos a mano, aun cuando nunca haya visto dicha escritura antes.
  2. Los productos recomendados que un usuario ve en las páginas web de ventas al por menor. Estas recomendaciones podrían establecerse asociando al usuario con un gran número de variables tales como su historial de búsqueda, los artículos que ya ha comprado, la calificación que les ha dado, los que guarda en una lista de deseos, la ubicación del usuario, los artefactos que usa, las marcas que prefiere y el precio de sus compras previas.
  3. La detección de transacciones monetarias fraudulentas sobre la base de la fecha y la ubicación. Por ejemplo, si dos transacciones consecutivas tienen lugar en una misma tarjeta de crédito dentro de un lapso corto y en dos ciudades distintas.

Se usa una combinación de aprendizaje supervisado y no supervisado (lo que se conoce como “aprendizaje semisupervisado”) cuando se cuenta con un conjunto de datos relativamente pequeño y con etiquetas, para entrenar a la red neuronal para que actúe sobre otro conjunto más grande y sin etiquetas. Un ejemplo de aprendizaje semisupervisado es el software que crea deepfakes, o audio, videos o imágenes alterados digitalmente.

Aprendizaje profundo

El aprendizaje profundo emplea redes neuronales artificiales (ANN) de gran escala llamadas redes neuronales profundas para crear IA que pueda detectar fraudes financieros, efectuar análisis de imágenes médicas, traducir gran cantidad de texto sin intervención humana, y automatizar la moderación de contenido en las páginas de medios sociales. Estas redes neuronales aprenden a efectuar tareas empleando numerosas capas de procesos matemáticos, para así encontrar patrones o relaciones entre distintos puntos de datos en los conjuntos de datos. Un atributo clave del aprendizaje profundo es que estas ANN pueden leer detenidamente, examinar y clasificar cantidades inmensas de datos, lo cual en teoría les permite identificar nuevas soluciones a problemas ya existentes.

La IA generativa

La IA generativa[3] es un tipo de modelo de aprendizaje profundo que puede generar textos, imágenes u otros contenidos de gran calidad a partir de los datos de entrenamiento. El lanzamiento de, ChatGPT, el chatbot de OpenAI, a finales de 2022 llamó la atención sobre la IA generativa y desató una carrera entre las compañías para producir versiones alternativas (e idealmente superiores) de esta tecnología. El entusiasmo por los modelos grandes de lenguaje y otras formas de IA generativa también estuvo acompañado por una preocupación por la precisión, el sesgo dentro de dichas herramientas, la privacidad de los datos y cómo se podría usar estas herramientas para propagar la desinformación con mayor eficiencia.

Aunque hay otros tipos de aprendizaje automático, estos tres —el aprendizaje supervisado, el no supervisado y el aprendizaje profundo— representan las técnicas básicas usadas para crear y entrenar sistemas de IA.

Sesgos en la IA y el AA

La inteligencia artificial es construida por humanos y se la entrena con datos que ellos generan. Inevitablemente hay un riesgo de que los sesgos humanos individuales y sociales sean heredados por los sistemas de IA.

Hay tres tipos de sesgo comunes en los sistemas de computación:

  • Los sesgos preexistentes tienen su origen en las instituciones, prácticas y actitudes sociales.
  • El sesgo técnico se debe a limitaciones o consideraciones técnicas.
  • El sesgo emergente aparece en un contexto de uso.

El sesgo en la inteligencia artificial podría por ejemplo afectar la publicidad política que uno ve en la internet, el contenido movido a la cima de las noticias en las redes sociales, el costo de una prima de seguro, los resultados de la revisión en un proceso de reclutamiento, o la capacidad de pasar a través de los controles de frontera en otro país.

El sesgo en un sistema de computación es un error sistemático y repetible. Dado que el AA lidia con grandes cantidades de datos, hasta una tasa de error pequeña puede agravarse o magnificar, y afectar enormemente a los resultados del sistema. Una decisión que un sistema de AA tome, en particular aquellos que procesan conjuntos de datos gigantescos, a menudo es una predicción estadística. De ahí que su precisión esté relacionada con el tamaño del conjunto de datos. Es probable que los conjuntos de datos de entrenamiento más grandes produzcan decisiones que sean más precisas y reduzcan la posibilidad de error.

El sesgo en los sistemas de IA/AA pueden tener como resultado prácticas discriminatorias, lo que en última instancia llevaría a exacerbar las desigualdades ya existentes o a generar otras nuevas. Para mayor información consúltese este explicador relacionado con el sesgo de la IA y la sección Riesgos de este recurso.

Inicio

¿De qué modo la IA y el AA son relevantes en el espacio cívico y para la democracia?

Colmillos de elefante retratados en Uganda. Los algoritmos de IA/AA y los datos históricos pueden emplearse en la observación de la vida silvestre para predecir las incursiones de los cazadores furtivos. Crédito de la fotografía: NRCN.

La difundida proliferación, rápido despliegue, escala, complejidad e impacto de la IA sobre la sociedad es un tema de gran interés y preocupación para los gobiernos, la sociedad civil, las ONG, organizaciones de derechos humanos, empresas y el público en general. Los sistemas de IA podrían requerir de diversos grados de interacción humana o ninguna en. Cuando se les aplica en el diseño, la operación y el suministro de servicios, la IA/AA brindan el potencial de proveer nuevos servicios y mejorar la velocidad, focalización, precisión, eficiencia, consistencia, calidad o performance de los ya existentes. Pueden brindar nuevas ideas al hacer visibles conexiones, relaciones y patrones antes no descubiertos, y ofrecer nuevas soluciones. Al analizar grandes cantidades de datos, los sistemas de AA ahorran tiempo, dinero y esfuerzos. Algunos ejemplos de la aplicación de la IA/AA en diferentes ámbitos incluyen el uso de algoritmos de IA/AA y datos históricos en la conservación de la vida silvestre para predecir las incursiones de los cazadores furtivos, y para descubrir nuevas especies de virus.

Diagnóstico microscópico de la tuberculosis en Uzbekistán. Los sistemas de IA/AA ayudan a los profesionales del cuidado de la salud en el diagnóstico médico y en la detección de enfermedades. Crédito de la fotografía: USAID.

Las capacidades predictivas de la IA y su aplicación así como del AA en la categorización, organización, clustering y búsqueda de información han traído mejoras en muchos campos y ámbitos, entre ellos el cuidado de la salud, el transporte, la gobernanza, educación, energía y en evitar accidentes, así como en la seguridad, la prevención del crimen, la vigilancia policial, la aplicación de la ley, la gestión urbana y el sistema judicial. Por ejemplo, el AA puede usarse para seguir el progreso y la efectividad de los programas de gobierno y filantrópicos. Las administraciones de las ciudades, las de las ciudades inteligentes, inclusive, emplean el AA para analizar datos acumulados a lo largo del tiempo acerca del consumo de energía, la congestión de tráfico, los niveles de contaminación y los desechos, para así monitorear y administrar estas cuestiones e identificar patrones en su generación, consumo y manejo.

Mapas digitales creados en Mugumu, Tanzania. La inteligencia artificial puede apoyar la planificación del desarrollo de la infraestructura y la preparación para los desastres. Crédito de la fotografía: Bobby Neptune para DAI.

La IA también se usa en el monitoreo del clima, el pronóstico del tiempo, la predicción de desastres y peligros, y la planificación del desarrollo de la infraestructura. En el cuidado de la salud, los sistemas de IA ayudan a los profesionales en el diagnóstico médico, la cirugía asistida por robots, una detección más fácil de enfermedades, la predicción de brotes epidémicos, el rastreo de la(s) fuente(s) de la propagación de enfermedades y así sucesivamente. La policía y las agencias de seguridad emplean sistemas de vigilancia basados en la IA/AA, sistemas de reconocimiento facial, drones, y la vigilancia policial predictiva para la seguridad y protección de la ciudadanía. De otro lado, muchas de estas aplicaciones plantean preguntas acerca de la autonomía individual, la privacidad, seguridad, la vigilancia de masas, la desigualdad social y su impacto negativo sobre la democracia (véase la sección Riesgos).

Peces cogidos en la costa de Kema, Célebes septentrional, Indonesia. El reconocimiento facial se usa para identificar las especies de pescado y contribuir a las prácticas de pesca sostenible. Crédito de la fotografía: cortesía de USAID SNAPPER.

La IA y el AA tienen ambos implicaciones tanto positivas como negativas para las políticas públicas así como para las elecciones, y para la democracia de modo más amplio. Si bien es cierto que los datos pueden usarse para maximizar la efectividad de una campaña mediante mensajes focalizados que ayuden a persuadir a posibles votantes, también pueden emplearse para suministrar propaganda o desinformación a públicos vulnerables. Durante la campaña presidencial de EE.UU de 2016, por ejemplo, Cambridge Analytica utilizó big data y el aprendizaje automático para adaptar los mensajes a los votantes basándose en predicciones a su susceptibilidad a distintos argumentos.

Durante las elecciones del Reino Unido y de Francia en 2017 se usaron, bots políticos para propagar desinformación en las redes sociales y filtrar mensajes electrónicos de campaña privados. Estos bots autónomos están “programados para propagar agresivamente mensajes políticos unilaterales para fabricar así la ilusión del apoyo popular”, o incluso disuadir a ciertas poblaciones de sufragar. Los deepfakes (audios o videos que han sido fabricados o alterados), algo posible gracias a la IA, también contribuyen a propagar la confusión y falsedades acerca de los candidatos políticos y otros actores relevantes. Aunque la inteligencia artificial puede usarse para exacerbar y amplificar la desinformación, también se la puede aplicar en posibles soluciones a este reto. Véase en la sección de Estudios de caso de este recurso, los ejemplos de cómo la industria de verificación de hechos viene aprovechando la inteligencia artificial para identificar y desmentir con mayor efectividad las narrativas falsas y engañosas.

Los ciberatacantes que buscan alterar los procesos electorales emplean el aprendizaje automático para focalizar eficazmente a las víctimas y diseñar estrategias con las cuales vencer las ciberdefensas. Es cierto que estas tácticas pueden usarse para prevenir los ciberataques, pero el nivel de inversión en tecnologías de inteligencia artificial por parte de actores maliciosos supera en muchos casos al de los gobiernos legítimos u otras entidades oficiales. Algunos de estos actores también emplean herramientas de vigilancia digital impulsadas por la IA para seguir y focalizarse en figuras de la oposición, defensores de los derechos humanos y otros críticos identificados.

Como ya se ha examinado en otra parte de este recurso, “el potencial que los sistemas automatizados de toma de decisiones tienen para reforzar sesgos y la discriminación, también tiene un impacto sobre el derecho a la igualdad y la participación en la vida pública”. El sesgo dentro de los sistemas de IA puede dañar a las comunidades históricamente subrepresentadas y exacerbar las divisiones de género existentes, así como los daños en línea que experimentan las mujeres candidatas, políticas, activistas y periodistas.

Las soluciones impulsadas por la IA pueden ayudar a mejorar la transparencia y la legitimidad de las estrategias de campaña, por ejemplo al aprovechar los bots políticos para el bien al ayudar a identificar artículos que contienen desinformación, o brindando una herramienta con la cual recolectar y analizar las preocupaciones de los votantes. La inteligencia artificial puede asimismo usarse para hacer que el trazado de los distritos electorales sea menos partidario (aun cuando en algunos casos también facilita el gerrymandering partidario) y prevenir o detectar fraudes, así como errores administrativos significativos. El aprendizaje automático puede informar la incidencia política prediciendo qué partes de una ley serán aprobadas a partir de evaluaciones algorítmicas del texto de la ley, con cuántos auspiciadores o partidarios cuenta, e incluso en qué parte del año es presentada.

El impacto pleno que el despliegue de sistemas de IA habrá de tener sobre las personas, la sociedad y la democracia no es conocido ni cognoscible, lo cual crea muchos problemas legales, sociales, reguladores, técnicos y éticos. El tema del sesgo nocivo en la inteligencia artificial y su intersección con los derechos humanos y los derechos civiles ha sido motivo de preocupación para gobiernos y activistas. El Reglamento General de Protección de Datos (RGPD) de la Unión Europea cuenta con disposiciones acerca de la toma de decisiones automatizada, el perfilamiento inclusive. En febrero de 2020 la Comisión Europea presentó un libro blanco sobre la IA como precuela a una posible legislación que rigiera su uso en la UE, en tanto que otra de sus organizaciones hizo recomendaciones sobre el impacto de los sistemas algorítmicos en los derechos humanos. Alemania, Francia, Japón e India asimismo han esbozado estrategias de IA para las políticas y leyes. El físico Stephen Hawking una vez dijo, “…el éxito en la creación de la IA podría ser el más grande acontecimiento en la historia de nuestra civilización. Pero también podría ser el último, salvo que aprendamos cómo evitar los riesgos”.

Inicio

Oportunidades

La inteligencia artificial y el aprendizaje automático pueden tener impactos positivos cuando se los emplea para promover la democracia, los derechos humanos y el buen gobierno. Lea a continuación cómo reflexionar de modo más eficaz y seguro acerca de la inteligencia artificial y el aprendizaje automático en su trabajo.

Detecte y venza los sesgos

Aunque la inteligencia artificial, como ya vimos, puede reproducir los sesgos humanos, también puede ser usada para combatir los sesgos inconscientes en contextos tales como el reclutamiento laboral. Los algoritmos diseñados de modo responsable pueden sacar sesgos escondidos a la luz, y en algunos casos empujar a la gente hacia resultados menos sesgados, por ejemplo escondiendo el nombre, la edad y otras características en el currículum de los candidatos que activen los sesgos.

Mejorar la seguridad y protección

Los sistemas de IA pueden usarse para detectar ataques a la infraestructura pública, como un ciberataque o un fraude con tarjetas de crédito. A medida que el fraude en línea se vuelve más desarrollado, las compañías, gobiernos y personas deben poder identificarlo rápidamente, o incluso prevenir que se dé. El aprendizaje automático puede ayudar a identificar patrones ágiles e inusuales que igualan o superan las estrategias tradicionales usadas para evitar la detección.

Moderar contenidos en línea nocivos

Cada segundo se sube una cantidad enorme de contenido a la internet y a las redes sociales. Simplemente hay demasiados videos, fotos y publicaciones como para que los humanos puedan revisarlos manualmente. Las herramientas de filtrado, como los algoritmos y las técnicas de aprendizaje automático, son usadas por muchas plataformas de medios sociales para filtrar los contenidos que violan sus condiciones de servicio (como materiales de abuso sexual infantil, violaciones de copyright o spam). La inteligencia artificial está en efecto operando en su cuenta de correo electrónico, filtrando automáticamente los contenidos de marketing no deseados de su buzón principal. El reciente arribo de los deepfakes y otros contenidos generados por computadora requieren de tácticas de identificación igual de avanzadas. Los verificadores de información y otros actores que trabajan para reducir [sic: diffuse] el peligroso y engañoso poder de los deepfakes vienen desarrollando su propia inteligencia artificial para identificar a estos medios de comunicación como falsos.

Búsquedas en la web

Los motores de búsqueda operan con sistemas algorítmicos de ranking. Estos motores ciertamente no están libres de serios sesgos y defectos, pero nos permiten ubicar información en las vastas extensiones de la internet. Los motores de búsqueda en la web (como Google y Bing) o dentro de plataformas y páginas web (como las búsquedas dentro de Wikipedia o The New York Times) pueden mejorar sus sistemas algorítmicos de ranking empleando el aprendizaje automático para así favorecer los resultados de alta calidad que pueden ser beneficiosos para la sociedad. Por ejemplo, Google tiene una iniciativa para resaltar reportajes originales, que prioriza el primer caso de una noticia antes que las fuentes que vuelven a publicar la información.

Traducción

El aprendizaje automático ha hecho posibles unos avances realmente increíbles en la traducción. Por ejemplo, DeepL es una pequeña compañía de traducción automática que ha superado las capacidades traductoras hasta de las más grandes empresas tecnológicas. Otras compañías también han creado algoritmos de traducción que permiten a personas de todo el mundo traducir textos a su lengua preferida, o comunicarse en otras lenguas fuera de aquellas que conocen bien, lo que ha promovido el derecho fundamental del acceso a la información, así como el derecho a la libertad de expresión y a ser escuchado.

Inicio

Riesgos

El uso de tecnologías emergentes como la IA puede también generar riesgos para la democracia y en los programas de la sociedad civil. Lea a continuación cómo aprender a discernir los posibles peligros asociados con la inteligencia artificial y el aprendizaje automático en el trabajo de DR, así como de qué formas mitigar las consecuencias no intencionales, y también las intencionales.

Discriminación de grupos marginados

Hay varias formas en que la IA puede tomar decisiones que podrían generar la discriminación, entre ellas cómo se definen la “variable objetivo” y las “etiquetas de clase en el transcurso del proceso de etiquetado de los datos de entrenamiento; cuando se recogen los datos de entrenamiento; durante la selección de características; y cuando se identifican las proxies. Es asimismo posible configurar intencionalmente un sistema de IA para que discrimine a uno o más grupos. Este video explica de qué modo los sistemas de reconocimiento facial disponibles comercialmente, a los que se entrenó con conjuntos de datos sesgados racialmente, discriminan a las personas de piel oscura, a las mujeres y a las de género diverso.

La precisión de los sistemas de IA se basa en la forma en que el AA procesa el Big Data, lo cual a su vez depende del tamaño del conjunto de datos. Cuanto más grande sea, tanto más probable es que las decisiones del sistema sean más precisas. Sin embargo, es menos probable que las personas negras y la gente de color (PoC), los discapacitados, las minorías, los indígenas, la gente LGBTQ+ y otras minorías más estén representadas en un conjunto de datos debido a la discriminación estructural, el tamaño del grupo o a actitudes externas que impiden su participación plena en la sociedad. El sesgo en los datos de entrenamiento refleja y sistematiza la discriminación existente. Y dado que un sistema de IA es a menudo una caja negra, resulta difícil establecer por qué la IA toma ciertas decisiones acerca de ciertas personas o grupos, o probar concluyentemente que ha tomado una decisión discriminatoria. Resulta por ende difícil evaluar si ciertas personas fueron discriminadas debido a su raza, sexo, estatus marginal u otras características protegidas. Por ejemplo, los sistemas de IA usados en la vigilancia policial predictiva, la prevención del delito, la aplicación de la ley y el sistema de justicia penal son, en cierto sentido, herramientas para la evaluación del riesgo. Empleando datos históricos y algoritmos complejos generan puntajes predictivos que buscan indicar la probabilidad de que se cometa un delito, la ubicación y momento probables, y las personas que posiblemente estén involucradas. Cuando se depende de datos sesgados, o de estructuras de toma de decisiones sesgadas, estos sistemas pueden terminar reforzando estereotipos acerca de los grupos desfavorecidos, marginados o minoritarios.

Un estudio efectuado por la Royal Statistical Society señala que la “…vigilancia predictiva de los delitos relacionados con las drogas tuvo como resultado una vigilancia cada vez más desproporcionada de comunidades históricamente sobre-vigiladas… y en casos extremos, el contacto policial adicional generará oportunidades adicionales de violencia policial en áreas sobre-vigiladas. Cuando el costo de la vigilancia policial es desproporcionado en comparación con el nivel de los delitos, esto equivale a una política discriminatoria”. De igual modo, cuando las aplicaciones móviles para una navegación urbana segura o el software de puntaje crediticio, banca, seguros, cuidado de la salud y la selección de empleados y estudiantes universitarios depende de datos y decisiones sesgados, entonces reforzarán la desigualdad social y los estereotipos negativos y nocivos.

Los riesgos asociados con los sistemas de IA se exacerban cuando éstos toman decisiones o formulan predicciones que involucran a grupos vulnerables tales como los refugiados, o acerca de situaciones de vida o muerte, como en el caso del cuidado médico. Un informe de 2018 preparado por el Citizen Lab de la Universidad de Toronto anota: “Muchos [de los inmigrantes o de quienes buscan asilo] provienen de países asolados por la guerra que buscan protección de la violencia y la persecución. La naturaleza matizada y compleja de muchos refugiados y pedidos de asilo puede ser pasada por alto por estas tecnologías, lo cual provocará serias violaciones de los derechos humanos protegidos internacional y localmente, bajo la forma de sesgos, discriminación, violaciones de la privacidad, cuestiones del debido proceso y de justicia procesal, entre otros. Estos sistemas habrán de tener ramificaciones de vida o muerte para la gente común, muchas de las cuales están huyendo para salvar su vida”. En el caso de los usos médicos y de cuidado de la salud, lo que está en juego es particularmente alto puesto que una decisión errada tomada por el sistema de IA podría potencialmente poner vidas en riesgo, o alterar drásticamente la calidad de vida o el bienestar de las personas que se ven afectadas por ella.

Vulnerabilidades en la seguridad

Los hackers maliciosos y las organizaciones criminales pueden emplear los sistemas de AA para identificar vulnerabilidades y poner la mira en la infraestructura pública o en sistemas privados como la internet de las cosas (IdC) y los vehículos autónomos.

Si una entidad maliciosa pone la mira en los sistemas de IA empleados en la infraestructura pública, como las ciudades inteligentes, redes eléctricas inteligentes, instalaciones nucleares, instalaciones para el cuidado de la salud y los sistemas bancarios, entre otros “serán más difíciles de proteger, puesto que estos ataques probablemente se harán más automatizados y complejos, y el riesgo de los fallos en cascada resultará más difícil de predecir. Un adversario inteligente puede o bien intentar descubrir y explotar las debilidades ya existentes en los algoritmos, o sino crear uno al cual posteriormente podrá aprovechar”. El aprovechamiento puede darse, por ejemplo, mediante un ataque de envenenamiento, que interfiere con los datos de entrenamiento cuando se usa el aprendizaje automático. Los atacantes podrían asimismo “usar algoritmos de AA para identificar automáticamente vulnerabilidades y optimizar los ataques estudiando y aprendiendo en tiempo real acerca de los sistemas que tienen en la mira”.

Privacidad y protección de datos

El uso de sistemas de IA sin dispositivos de seguridad y mecanismos de reparación puede plantear muchos riesgos a la privacidad y la protección de datos. Las empresas y gobiernos recolectan inmensas cantidades de datos personales para así entrenar a los algoritmos de los sistemas de IA que brindan servicios o efectúan tareas específicas. Los delincuentes, gobiernos intolerantes y personas con intenciones malignas a menudo ponen la mira en estos datos para así tener un beneficio económico o político. Por ejemplo, de filtrarse los datos de salud captados de las aplicaciones de celulares inteligentes y aparatos vestibles conectados a la internet, podrían ser usados incorrectamente por agencias de crédito, compañías de seguros, brókeres de información, cibercriminales, etc. La cuestión no son solo las filtraciones, sino también los datos que la gente entrega voluntariamente sin control sobre cómo serán usados más adelante. Esto incluye lo que compartimos tanto con las compañías como con las agencias de gobierno. La violación o abuso de los datos no personales, como los datos anonimizados, las simulaciones, los datos sintéticos o las normas generalizadas de procedimientos, podrían también afectar los derechos humano.

Chilling effect (efecto inhibidor)

Los sistemas de IA usados para la vigilancia y protección, condenas penales, fines legales, etc., se convierten en una nueva vía para el abuso del poder por parte del Estado, para controlar a la ciudadanía y a los disidentes políticos. El temor al perfilamiento, la puntuación, la discriminación y la vigilancia digital omnipresente pueden tener un efecto inhibidor sobre la capacidad o la disposición de la ciudadanía a ejercer sus derechos o a expresarse. Muchas personas modificarán su comportamiento a fin de conseguir los beneficios de contar con un buen puntaje y de evitar las desventajas que se siguen de tener uno malo.

Opacidad (naturaleza de caja negra de los sistemas de IA)

Podemos interpretar la opacidad como ya sea la falta de transparencia, ya de inteligibilidad. Los algoritmos, el código del software, el procesamiento detrás de escena y el proceso mismo de toma de decisiones podrían no ser inteligibles para quienes no son expertos o profesionales especializados. Por ejemplo, en los asuntos legales o judiciales, las decisiones que un sistema de IA toma no viene con explicaciones, a diferencia de las de los jueces, quienes están obligados a justificar su orden legal o juicio.

Desempleo tecnológico

Los sistemas de automatización, los de IA/AA inclusive, vienen usándose cada vez más para reemplazar el trabajo humano en diversos ámbitos e industrias, eliminando así un gran número de empleos y generando un desempleo estructural (al cual se conoce como desempleo tecnológico). Con la introducción de los sistemas de IA/AA se perderán algunos tipos de trabajos, otros serán transformados, y aparecerán otros nuevos. Es probable que los nuevos trabajos requieran de habilidades específicas o especializadas que sean adaptables a dichos sistemas.

Pérdida de autonomía individual y de la condición de persona

El perfilamiento y la puntuación en la IA despiertan el temor de que las personas sean deshumanizadas y reducidas a un perfil o puntaje. Los sistemas de toma de decisión automatizados podrían afectar el bienestar, la integridad física y la calidad de vida. Esto afecta lo que constituye el consentimiento de una persona (o la falta del mismo), la forma en que se dio, comunicó y entendió el consentimiento, así como el contexto dentro del cual es válido. “[E]l debilitamiento de la base libre de nuestro consentimiento individual —ya sea mediante una distorsión total de la información o incluso con tan solo la ausencia de transparencia— pone en peligro las bases mismas de cómo expresamos nuestros derechos humanos y hacemos que otros rindan cuentas por su privación abierta (o incluso latente)”. – Human Rights in the Era of Automation and Artificial Intelligence

Inicio

Preguntas

Hágase estas preguntas si está intentando entender las implicaciones que la inteligencia artificial y el aprendizaje automático tendrán en su entorno laboral, o si está considerando usar algunos aspectos de estas tecnologías como parte de su programación DRG:

  1. ¿La inteligencia artificial o el aprendizaje automático son una herramienta apropiada, necesaria y proporcional para usarla en este proyecto y con esta comunidad?
  2. ¿Quién está diseñando y supervisando la tecnología? ¿Pueden explicar lo que está sucediendo en las distintas etapas del proceso?
  3. ¿Qué datos están usándose para diseñar y entrenar la tecnología? ¿De qué modos podrían generar una tecnología sesgada o de funcionamiento defectuoso?
  4. ¿Qué razones tiene para confiar en las decisiones de la tecnología? ¿Entiende por qué está obteniendo cierto resultado, o podría acaso haber un error en algún lado? ¿Hay algo que no pueda ser explicado?
  5. ¿Confía en que la tecnología trabajará como se desea cuando la use con su comunidad y en su proyecto, en lugar de en un entorno de laboratorio (o uno teórico)? ¿Qué elementos de su situación podrían causar problemas o cambiar el funcionamiento de la tecnología?
  6. ¿Quién está analizando e implementando la tecnología de IA/AA? ¿Entienden la tecnología y son conscientes de sus posibles defectos y peligros? ¿Es posible que tomen decisiones sesgadas, ya sea por malinterpretar la tecnología o por alguna otra razón?
  7. ¿Con qué medidas cuenta para identificar y hacer frente a los sesgos potencialmente dañinos de la tecnología?
  8. ¿Con qué dispositivos de seguridad reguladores y mecanismos de reparación cuenta, para las personas que sostienen que la tecnología ha sido injusta o que ha abusado de ellos de algún modo?
  9. ¿Hay alguna forma de que su tecnología de IA/AA pueda perpetuar o incrementar las desigualdades sociales, incluso si los beneficios de su uso superan estos riesgos? ¿Qué hará para minimizar estos problemas y quedar alerta a ellos?
  10. ¿Está seguro de que la tecnología acata las normas y estándares legales relevantes, el RGPD inclusive?
  11. ¿Hay alguna forma de que esta tecnología pueda no discriminar a la gente por sí misma, pero que si pueda provocar discriminación o alguna otra violación de derechos, por ejemplo cuando se la aplica en contextos diferentes, o si se comparte con actores no capacitados? ¿Qué podría hacer para prevenir esto?

Inicio

Estudios de caso

Aprovechando la inteligencia artificial para promover la integridad de la información

eMonitor+, del Programa de las Naciones Unidas para el Desarrollo, es una plataforma que opera con IA y que ayuda a “escanear en línea las publicaciones de las redes sociales para identificar violaciones electorales, desinformación, discursos de odio, polarización política y pluralismo, así como violencia en línea contra las mujeres”. El análisis de datos facilitado por eMonitor+ permite a las comisiones electorales y las partes interesadas de los medios de comunicación “observar la prevalencia, la naturaleza y el impacto de la violencia en línea. La plataforma depende del aprendizaje automático para seguir y analizar contenidos en los medios digitales y generar representaciones gráficas para la visualización de datos. eMonitor+ ha sido utilizado por Asociación Civil Transparencia y Ama Llulla de Perú, para mapear y analizar la violencia y el discurso de odio digitales en los diálogos políticos, así como por la Comisión Supervisora de las Elecciones durante la elección parlamentaria libanesa de 2022, para monitorear las posibles violaciones electorales, los gasto de campaña y la desinformación. La Alta Comisión Nacional Electoral de Libia también empleó a eMonitor+ para monitorear e identificar en línea la violencia contra las mujeres durante las elecciones.

“Cómo los verificadores de información de Nigeria están usando la IA contra la desinformación electoral”

Cómo los verificadores de información de Nigeria están usando la IA contra la desinformación electoral”

Antes de la elección presidencial de Nigeria en 2023, Full Fact, la organización verificadora de información del RU, “ofreció su suite de inteligencia artificial —que consta de tres herramientas que trabajan simultáneamente para automatizar los prolongados procesos de verificación de la información— para así ampliar enormemente esta capacidad en Nigeria”. Según Full Fact, estas herramientas no buscan reemplazar a los verificadores humanos, sino más bien ayudarles en el monitoreo y revisión manuales, que toman demasiado tiempo, dándoles así “más tiempo para hacer las cosas en que son mejores: entender lo que importa en el debate público, cuestionar las afirmaciones, revisar datos, hablar con expertos y compartir sus hallazgos”. Las herramientas expandibles, que incluyen funciones de búsqueda, alertas y en vivo, permiten a los verificadores “monitorear páginas web de noticias, redes sociales y transcribir afirmaciones hechas en vivo en la TV o la radio, para así hallar afirmaciones que verificar”.

Monitoreando el desarrollo de los cultivos: Agroscout

Monitoreando el desarrollo de los cultivos: Agroscout

El creciente impacto del cambio climático podría reducir aún más el rendimiento de los cultivos, especialmente en las regiones del mundo de mayor inseguridad alimentaria. Y nuestros sistemas alimentarios son responsables por alrededor del 30% de las emisiones de gases de efecto invernadero. La startup israelí AgroScout imagina un mundo en donde los alimentos se cultivan de modo más sostenible. “Nuestra plataforma usa IA para monitorear el desarrollo de los cultivos en tiempo real, y así planear con mayor precisión las operaciones de procesamiento y manufactura entre regiones, cultivadores y criadores”, dijo Simcha Shore, fundador y CEO de AgroScout. ‘Al utilizar la tecnología de la IA, AgroScout detecta a pestes y enfermedades tempranamente, lo que permite a los granjeros aplicar tratamientos precisos que reducen el uso de agroquímicos hasta en 85%. Esta innovación ayuda a minimizar el daño ambiental provocado por los agroquímicos tradicionales, lo que hace una contribución positiva a las prácticas agrícolas sostenibles’”.

Aprendizaje automático para la paz

El Machine Learning for Peace Project (Proyecto Aprendizaje Automático para la Paz) busca entender cómo es que el espacio cívico viene cambiando en países de todo el mundo que usan técnicas de aprendizaje automático de última generación. Al aprovechar las últimas innovaciones en el procesamiento de lenguaje natural, el proyecto clasifica “un corpus enorme de noticias digitales en 19 tipos de ‘acontecimientos’ de espacio cívico y 22 tipos de acontecimientos de Resurgent Authoritarian Influence (RAI, influencia autoritaria renaciente), que captan los esfuerzos realizados por regímenes autoritarios para influir en los países en vías de desarrollo”. Entre los “acontecimientos” del espacio cívico que vienen siguiéndose están el activismo, los golpes, las actividades electorales, los cambios legales y las protestas. Los datos de los acontecimientos del espacio cívico se combinan con “datos económicos de alta frecuencia para identificar impulsores claves del espacio cívico y predecir cambios en los meses siguientes”. En última instancia, el proyecto espera servir como una “herramienta útil para los investigadores que buscan datos ricos y de alta frecuencia sobre los regímenes políticos, así como para los decisores de políticas y activistas que luchan para defender la democracia en todo el mundo”.

Seguridad alimentaria: detectando enfermedades en cultivos usando el análisis de imágenes

Seguridad alimentaria: detectando enfermedades en cultivos usando el análisis de imágenes

“Las enfermedades de plantas son una amenaza no solo para la seguridad alimentaria a escala global, sino que pueden además tener consecuencias desastrosas para los pequeños agricultores cuya subsistencia depende de cultivos saludables”. Como primer paso para complementar las soluciones existentes al diagnóstico de enfermedades con un sistema de diagnóstico asistido por celulares, los investigadores usaron un conjunto de datos público de 54,306 imágenes de hojas de plantas enfermas y saludables, para así entrenar una “red neural convolucional profunda” que identifique automáticamente 14 especies de cultivos diferentes y 26 enfermedades singulares (o su ausencia).

Inicio

Referencias

A continuación encontrará los trabajos citados en este recurso.

Recursos adicionales

Inicio

Categories

Protección de datos

¿Qué es la protección de datos?

La protección de datos se refiere a las prácticas, medidas y leyes que buscan prevenir que cierta información acerca de una persona sea recolectada, usada o compartida de modo tal que sea dañina para ella.

Entrevista con un pesador en Bone, Célebes Meridional, Indonesia. Los recolectores de datos deben recibir capacitación sobre cómo evitar los sesgos durante el proceso de recolección de datos. Crédito por la fotografía: Indah Rufiati/MDPI – cortesía de USAID Oceans.

La protección de datos no es nueva. Los actores malos siempre han buscado acceder a los registros privados de las personas. Antes de la era digital, la protección de datos significaba proteger los datos privados de una persona de que alguien accediera a ellos físicamente, los viera o tomara carpetas y documentos. Las leyes de protección de datos existen hace ya más de 40 años.

Ahora que muchos aspectos de la vida de las personas se han pasado en línea, la información privada, personal e identificable es compartida con regularidad con todo tipo de entidades privadas y públicas. La protección de datos busca asegurar que esta información sea recogida, almacenada y mantenida responsablemente y que las consecuencias involuntarias de su uso sean minimizadas o mitigadas.

¿Qué son los datos?

Con datos nos referimos a información digital como mensajes de texto, videos, clics, huellas dactilares digitales, un bitcoin, el historial de búsqueda y hasta los simples movimientos del cursor. Los datos pueden guardarse en computadoras, dispositivos móviles, en nubes y discos duros externos. Se les puede compartir por correo electrónico, apps de mensajería y herramientas de transferencia de archivos. Sus publicaciones, me gusta y retweets, sus videos de gatos y protestas, y todo lo que comparte en las redes sociales son datos.

Los metadatos son un subconjunto de los datos. Son información guardada dentro de un documento o archivo. Son una huella digital electrónica que contiene información acerca del documento o archivo. Usemos un correo electrónico como ejemplo. Si envía uno a su amigo, su texto son los datos. El correo mismo, sin embargo, contiene toda suerte de metadatos como quién lo creó, quién es el receptor, la dirección IP del autor, el tamaño del mensaje, etc.

Grandes cantidades de datos quedan combinados y guardados juntos. Estos grandes archivos contienen miles o millones de archivos individuales a los que se conoce como conjuntos de datos. Estos últimos son combinados a su vez en conjuntos de datos sumamente grandes. Y estos últimos, a los que se conoce como big data, se usan para entrenar a los sistemas de aprendizaje automático systems.

Datos personales e información personalmente identificable

Los datos pueden parecer sumamente abstractos, pero los pedazos de información a menudo reflejan bastante la identidad o los comportamientos de personas reales. No todos los datos necesitan ser protegidos, pero algunos de ellos, los metadatos inclusive, pueden revelar bastante acerca de una persona. A esto se conoce como Información Personal de Identificación (PII). A la PII usualmente se la conoce como datos personales. Es información que se puede usar para distinguir o rastrear la identidad de una persona como un nombre, el número de pasaporte o los datos biométricos como las huellas digitales y los patrones faciales. PII es también información vinculada a o vinculable con una persona, como su fecha de nacimiento y su religión.

Los datos personales pueden ser recolectados, analizados y compartidos para beneficio de las personas involucradas, pero también pueden usarse con fines dañinos. Ellos son valiosos para muchos actores públicos y privados. Por ejemplo, los recogen las plataformas de redes sociales y son vendidos a compañías de publicidad. Son recolectados por los gobiernos para servir a fines policiales, como perseguir el delito. Los políticos valoran los datos personales para enfocarse en votantes con cierta información política. Estos datos pueden ser monetizados por personas con intenciones criminales, como la venta de identidades falsas.

“Compartir datos es una práctica regular que está haciéndose cada vez más ubicua a medida que la sociedad pasa a estar en línea. Compartirlos no sólo trae beneficios a los usuarios, sino que además es a menudo necesario para cumplir labores administrativas o interactuar con la sociedad actual. Pero no está libre de riesgos. Su información personal revela bastante de usted mismo, sus pensamientos y su vida, que es la razón por la cual necesita ser protegida”.

Access Now’s ‘Creating a Data Protection Framework’, Noviembre de 2018.

¿Cómo se relaciona la protección de datos con el derecho a la privacidad?

El derecho a la protección de los datos personales está estrechamente interconectado con el derecho a la privacidad, pero es algo distinto. La comprensión de qué significa “privacidad” varía de un país a otro basado en su historia, cultura o influencias filosóficas. La protección de datos no siempre es considerada un derecho en sí mismo. Lea aquí más acerca de las diferencias existentes entre la privacidad y la protección de los datos.

La privacidad de los datos es también una forma común de hablar acerca de datos sensibles y la importancia de protegerlos de su compartición involuntaria, así como la recolección y uso indebido o ilegal de datos acerca de una persona o grupo. La estrategia digital de USAID para 2020 – 2024 la define como ‘el derecho de una persona o grupo a conservar el control sobre, y la confidencialidad de, la información de sí misma’.

¿Cómo funciona la protección de datos?

Participante en el programa WeMUNIZE de USAID en Nigeria. La protección de datos debe también ser considerada para conjuntos de datos existentes. Crédito de la fotografía: KC Nwakalor for USAID / Digital Development Communications

Los datos personales pueden y debieran ser resguardados con medidas que protejan la identidad u otra información acerca de una persona, y que respeten su derecho a la privacidad. Ejemplos de tales medidas incluyen el establecer qué datos son vulnerables sobre la base de evaluaciones de riesgo de la privacidad; no mantener datos sensibles en línea; limitan quién puede acceder a ciertos datos; anonimizar los datos sensibles; y sólo recoger los que sean necesarios.

Hay un par de principios y prácticas establecidos para proteger los datos sensibles. En muchos países, estas medidas son impuestas a través de leyes, las cuales contienen los principios claves que son importantes para garantizar la protección de los datos.

“Las leyes de protección de datos buscan proteger los del pueblo dando a las personas derechos sobre ellos, imponiendo normas sobre la forma en que las compañías y gobiernos los usan, y estableciendo reguladores que hacen cumplir las leyes”.

Privacy International sobre protección de datos

A continuación se esbozan un par de términos y principios importantes, que tienen como base el Reglamento General de Protección de Datos de la Unión Europea (GDPR).

  • Sujeto de los datos: toda persona cuyos datos personales estén siendo procesados, como ser añadidos a una base de datos de contactos o a una lista de correo de mensajes publicitarios.
  • Procesamiento de datos quiere decir toda operación realizada con datos personales, ya sea anual o automatizada.
  • Controlador de datos: el actor que determina los fines y medios para los cuales se procesan los datos personales.
  • Procesador de datos: el actor que procesa los datos personales a nombre del controlador; a menudo es un tercero externo a este último, como una parte que ofrece listas de correo o servicios de encuesta.
  • Consentimiento informado: las personas entienden y aceptan que sus datos personales serán recolectados, que se tenga acceso a ellos, se les use y/o comparta, y cómo pueden retirar su consentimiento.
  • Limitación de fines: los datos personales se recogen sólo para un uso específico y justificado, y las otras partes no pueden usarlos con otros fines.
  • Minimización de los datos: la recolección de datos es minimizada y queda limitada a los detalles esenciales.

 

Proveedor del cuidado de salud en Eswatini. Los datos de calidad y los conjuntos de datos protegidos pueden acelerar el impacto en el sector de la salud pública. Crédito de la fotografía: Ncamsile Maseko & Lindani Sifundza.

La guía de Access Now enumera ocho principios de protección de los datos que provienen mayormente de estándares internacionales, en particular de la Convención del Consejo de Europa para la para la Protección de las Personas, en relación con el Procesamiento Automático de Datos Personales (ampliamente conocida como la Convención 108), y de las Privacy Guidelines de la Organización para la Cooperación y el Desarrollo Económico (OCDE): los países que han ratificado los marcos internacionales de protección de datos consideran que son los “estándares mínimos” para la protección de los derechos fundamentales.

Un proyecto de desarrollo que use datos, ya sea mediante una lista de correo o analizando conjuntos de datos, debiera cumplir con las leyes que rigen su protección. De no haber un marco legal nacional, los principios, normas y estándares internacionales pueden servir de línea de base para alcanzar el mismo nivel de protección de los datos y las personas. El acatamiento de estos principios podría parecer molesto, pero implementar unos cuantos pasos relacionados con la protección de datos desde el inicio mismo del proyecto le ayudará a alcanzar los resultados deseados sin poner a la gente en riesgo.

common practices of civil society organizations relate to the terms and principles of the data protection framework of laws and norms

La figura anterior muestra de qué modo las prácticas comunes de las organizaciones de la sociedad civil se relacionan con los términos y principios del marco de las leyes y normas de la protección de datos.

El Reglamento General de Protección de Datos de la Unión Europea (GDPR)

El RGPD, la ley de protección de datos de la UE, entró en vigor en 2018. Se la suele considerar la ley de protección de datos más sólida del mundo. Ella busca mejorar la forma en que la gente puede acceder a su información y limita lo que las organizaciones pueden hacer con los datos personales de los ciudadanos de la UE. Aunque proviene de la UE, el RGPD puede aplicarse también a organizaciones con sede fuera de la región cuando concierne a los datos de sus ciudadanos. El RGPD tiene, por ende, un impacto global.

Las obligaciones derivadas del RGPD y de otras leyes de protección de datos podrían tener amplias implicaciones para las organizaciones de la sociedad civil. Para información acerca del proceso de cumplimiento del RGPD y otros recursos, véase la guía del European Center for Not-for-Profit Law sobre los estándares de la protección de datos para organizaciones de la sociedad civil.

A pesar de sus protecciones, el RGPD también ha sido usado para acosar a los CSO y a periodistas. Por ejemplo, una compañía minera usó una de sus disposiciones para intentar obligar a Global Witness a que revelara las fuentes que usó en una campaña antiminera. Global Witness resistió dichos intentos exitosamente.

Tácticas de protección personales u organizacionales

La forma en que proteja su propia información sensible o los datos de su organización dependerá de su situación específica en términos de sus actividades y entorno legal. El primer paso es evaluar sus necesidades específicas en función a la seguridad y la protección de datos. Por ejemplo, qué información, de caer en manos equivocadas, podría tener consecuencias negativas para usted y su organización?

Los especialistas en seguridad digital han preparado recursos en línea a los cuales puede usar para protegerse. Ejemplos de ello son Security Planner, una guía fácil de usar con consejos revisados por expertos para estar más seguro en línea, y con recomendaciones para implementar prácticas básicas en línea. El Digital Safety Manual ofrece información y consejos prácticos sobre cómo mejorar la seguridad digital de los funcionarios gubernamentales que trabajan con la sociedad civil y los Defensores de los Derechos Humanos (DDH). Este manual brinda 12 cartillas adaptadas a diversas actividades comunes en la colaboración entre gobiernos (y otros socios) y las organizaciones de la sociedad civil. La primera cartilla ayuda a evaluar la seguridad digital.

Manual de seguridad digital

 

Primeros auxilios digitales es un recurso gratuito para personal de respuesta rápida, capacitadores en seguridad digital y activistas expertos en tecnología para que protejan mejor, a sí mismos y a las comunidades a las que apoyan, de los tipos más comunes de emergencias digitales. Los respondedores y mentores de seguridad digital global pueden ayudar con preguntas específicas o con su mentoría, por ejemplo, e Digital Defenders Partnership y el Computer Incident Response Centre for Civil Society (CiviCERT).

Inicio

¿De qué modo es la protección de datos relevante en el espacio cívico y para la democracia?

Muchas iniciativas que buscan fortalecer el espacio cívico o mejorar la democracia emplean tecnología digital. Hay una difundida creencia en que el creciente volumen de datos y las herramientas para procesarlos pueden ser usados para el bien. Y en efecto, la integración de la tecnología digital y el uso de los datos en la democracia, los derechos humanos y la programación de la gobernanza puede tener beneficios significativos; pueden, por ejemplo, conectar a comunidades alrededor del mundo, llegar mejor a poblaciones carentes de servicios, y ayudar a mitigar la desigualdad.

“Dentro del trabajo del cambio social usualmente hay una cruda asimetría de poder. Desde el trabajo humanitario a hacer campañas, de documentar las violaciones de los derechos humanos a la construcción de movimientos, las organizaciones promotoras a menudo están lideradas por —y trabajan con— comunidades vulnerables o marginadas. Frecuentemente abordamos el trabajo del cambio social a través de un lente crítico, priorizando cómo mitigar las asimetrías de poder. Creemos en la necesidad de hacer lo mismo cuando se trata de los datos con los que trabajamos: cuestionarlos, entender sus limitaciones y aprender de ellos en formas responsables”.

¿Qué son los datos responsables?

Si la información de calidad está disponible para las personas correctas cuando la necesitan, los datos están protegidos contra el mal uso, y el proyecto está diseñado con la protección de datos en mente, entonces puede acelerar el impacto.

  • El financiamiento que USAID hiciera de una mejor inspección de los viñedos usando drones y datos de GIS en Moldova, permite a los agricultores inspeccionar, identificar y aislar rápidamente los viñedos infectados con una enfermedad fitoplasmática de la vid.
  • Círculo es una herramienta digital para mujeres periodistas en México que les ayuda a crear fuertes redes de apoyo, a fortalecer sus protocolos de seguridad y a satisfacer las necesidades relacionadas con la protección de sí mismas y sus datos. Fue diseñada con los usuarios finales a través de grupos de chat y talleres presenciales, para así asegurarse de que todo lo que fuese construido en la app sería algo que necesitan y en que pueden confiar.

Al mismo tiempo, el desarrollo impulsado por los datos trae consigo la nueva responsabilidad de prevenir su mal uso cuando se diseñan, implementan o monitorean los proyectos de desarrollo. Los problemas de privacidad y seguridad son sumamente reales cuando el uso de los datos personales es un medio con el cual identificar a las personas que son elegibles para los servicios humanitarios.

  • Los campamentos de refugiados en Jordania necesitaron que los miembros de la comunidad permitieran que se escanease su iris para comprar alimentos y provisiones, y retirar dinero de los ATM. Esta práctica no integró formas significativas de pedir el consentimiento o permitir a las personas excluirse. Además, el uso y recolección de datos personales sumamente sensibles como los biométricos, para permitir hábitos cotidianos de compra, es algo desproporcionado, pues en muchas partes del mundo se cuenta con y usa otras tecnologías digitales menos personales.

Los gobiernos, organizaciones internacionales y actores privados pueden todos hacer un mal uso —incluso involuntariamente— de los datos personales con otros fines de los deseados, afectando así de modo negativo al bienestar de las personas relacionados con ellos. Privacy International resaltó algunos ejemplos:

  • El caso de Tullow Oil, la compañía más grande de exploración y producción de petróleo y gas en África, muestra como un actor privado consideró efectuar una investigación, extensa y detallada, del comportamiento de las comunidades locales a través de una compañía de investigación microfocalizada, para así conseguir ‘estrategias cognitivas y emocionales con las cuales influir y modificar las actitudes y el comportamiento de los turkanas’ en beneficio de Tullow Oil.
  • En Ghana, el Ministerio de Salud encargó un gran estudio de las prácticas y requerimientos de la salud en el país. Esto tuvo como resultado una orden del partido político gobernante, para que se modelara la distribución futura de los votos dentro de cada circunscripción a partir de cómo era que los encuestados decían que votarían, y que hubiese una campaña negativa que intentara conseguir que los partidarios de la oposición no votaran.

Hay recursos y expertos disponibles para ayudar en este proceso. La página web The Principles for Digital Development ofrece recomendaciones, consejos y recursos para proteger la privacidad y la seguridad a través del ciclo de vida de un proyecto, como en la etapa de análisis y planificación, en el diseño y desarrollo de proyectos y en su aplicación e implementación. También se cubren la medición y la evaluación. La página web The Responsible Data ofrece el Hand-Book of the Modern Development Specialist ilustrado y con una guía atractiva y entendible a lo largo de todos los pasos de un proyecto de desarrollo movido por datos: su diseño y el manejo de los datos, con información específica acerca de su recolección, comprensión y compartir, y el cierre de un proyecto.

Trabajadora de ONG se prepara para la recolección de datos en Buru Maluku, Indonesia. Cuando se recogen nuevos datos es importante diseñar el proceso cuidadosamente y pensar cómo afecta a las personas involucradas. Crédito de la fotografía: Indah Rufiati/MDPI – cortesía de USAID Oceans.

Inicio

Oportunidades

Las medidas de protección de datos promueven la democracia, los derechos humanos y las cuestiones de gobernanza. Lea a continuación para aprender cómo pensar de modo más eficaz y seguro acerca de la protección de datos en su trabajo.

Privacidad respetada y la gente protegida

La implementación de patrones de protección de datos en los proyectos de desarrollo protege a las personas de posibles daños debidos al abuso de su información. El abuso tiene lugar cuando una persona, compañía o gobierno accede a los datos personales y los usa con otros fines fuera de aquellos para los cuales fueron recogidos. Los servicios de inteligencia y las agencias policiales a menudo cuentan con medios legales y técnicos para imponer el acceso a los conjuntos de datos y abusar de ellos. Personas contratadas por los gobiernos pueden acceder a los conjuntos de datos hackeando la seguridad del software o de las nubes. Esto a menudo lleva a la intimidación, el silenciamiento y el arresto de los defensores de los derechos humanos, y a que los líderes de la sociedad civil critiquen a su gobierno. Privacy International mapea ejemplos de gobiernos y actores privados que abusan de los datos de las personas.

Unas fuertes medidas protectoras contra el abuso de datos aseguran el respeto al derecho fundamental a la privacidad de las personas cuyos datos fueron recogidos y usados. Las medidas protectoras permiten un desarrollo positivo como la mejora de las estadísticas oficiales, un mejor suministro de servicios, mecanismos de advertencia temprana focalizados, y una respuesta eficaz a los desastres.

Es importante establecer cómo es que los datos son protegidos a lo largo de todo el ciclo de vida de un proyecto. También debiera asegurarse a las personas la protección una vez terminado el proyecto, ya sea abruptamente o según estaba planeado, cuando el proyecto pasa a una fase distinta o cuando recibe financiamiento de distintas fuentes. Oxfam ha preparado un
folleto para ayudar a cualquiera que maneje, comparta o acceda a datos de programa, para que considere debidamente las cuestiones de los datos a lo largo de todo su ciclo de vida, desde preparar un plan a desecharlos.

Inicio

Riesgos

La recolección y el uso de datos puede también crear riesgos en la programación de la sociedad civil. Lea a continuación cómo discernir los posibles peligros asociados con la recolección y el uso de datos en el trabajo DRG, así como el modo de mitigar las consecuencias involuntarias y voluntarias.

Acceso no autorizado a los datos

Los datos necesitan estar guardados en algún lugar, en una computadora o en un disco externo, en una nube o en un servidor local. Dondequiera que se guarden los datos, se deben tomar precauciones para protegerlos de accesos no autorizados, y para evitar revelar la identidad de personas vulnerables. El nivel de protección necesario depende de cuán sensibles sean, esto es en qué medida podría haber consecuencias negativas si la información cae en manos equivocadas.

Los datos pueden guardarse en un servidor cercano y bien protegido, que está conectado con drives con una fuerte encriptación y acceso muy limitado, que es un método para mantener el control de los datos que posee. Los servicios en la nube ofrecidos por compañías tecnológicas bien conocidas, a menudo ofrecen medidas de protección básica y un amplio acceso al conjunto de datos en las versiones gratuitas. Las características de seguridad más avanzadas están disponibles para los clientes que pagan, como el almacenaje de datos en ciertas jurisdicciones que cuentan con leyes que los protegen. Los lineamientos de cómo asegurar los datos privados guardados y a los que se accede en las nubes, ayuda a entender diversos aspectos de éstas y a decidir en situaciones específicas.

Todo sistema necesita ser asegurado de ciberataques y manipulación. Un desafío común es encontrar una forma de proteger las identidades del conjunto de datos, por ejemplo retirando toda la información que podría identificar a personas a partir de los datos, esto es anonimizándolos. La anonimización correcta es de crucial importancia y algo más difícil de lo que a menudo se asume.

Podemos imaginar que un conjunto de datos de la ubicación con GPS de las Personas que Viven con Albinismo en Uganda requiere de una vigorosa protección La persecución tiene como base la creencia en que ciertas partes del cuerpo de las personas albinas pueden transmitir poderes mágicos, o se presume que están malditas y que traen mala suerte. Un proyecto de perfilamiento espacial que mapease la ubicación exacta de las personas pertenecientes a este grupo vulnerable podría mejorar el alcance y suministro de los servicios que se les presta. Sin embargo, el hackeo de las bases de datos o algún otro acceso ilegal a sus datos personales podría ponerles en riesgo ante las personas que quieren explotarles o hacerles daño.

Podríamos también imaginar que quienes operan un sistema alternativo para enviar alertas por ataques aéreos en Siria, corren el riesgo de que las autoridades los pongan en la mira. Si bien la recolección y el compartir de los datos por parte de este grupo busca prevenir muertes y lesiones, disminuye también el impacto de los ataques aéreos de las autoridades sirias. Los datos de la ubicación de las personas que manejan y contribuyen al sistema deben protegerse del acceso o la exposición.

Otro riesgo es que los actores privados que manejan o cooperan en proyectos movidos por datos se vean tentados a venderlos de ofrecérseles grandes sumas de dinero. Estos compradores serían compañías de publicidad o políticos que buscan dirigir campañas comerciales o políticas a personas específicas.

El sistema Tiko, diseñado por la empresa social Triggerise, premia a los jóvenes sus comportamientos positivos en busca de salud, como visitar farmacias y buscar información en línea. El sistema recoge y guarda, entre otras cosas, información personal sensible y de salud de jóvenes suscriptoras, las que usan la plataforma en busca de guía sobre anticonceptivos y abortos seguros, y rastrea sus visitas a las clínicas locales. De no estar protegidos estos datos, los gobiernos que han criminalizado el aborto podrían potencialmente acceder a ellos y usarlos para llevar a cabo acciones policiales contra mujeres embarazadas y proveedores médicos.

Recolección insegura de datos

Cuando se está planeando recoger nuevos datos, es importante diseñar cuidadosamente el proceso de recolección y pensar bien cómo es que afecta a las personas involucradas. Debiera estar claro desde el principio qué tipos de datos serán recogidos, para qué fin, y que las personas involucradas estén de acuerdo. Por ejemplo, el esfuerzo por mapear a personas con discapacidades en una ciudad específica puede mejorar los servicios. Sin embargo, la base de datos no debiera exponerlas a riesgos tales como los ataques o la estigmatización, que podrían concentrarse en hogares específicos. Además, el establecimiento de esta base de datos debería responder a las necesidades de las personas involucradas, y no al simple deseo de usarlos. Para mayores directrices consúltese el capítulo de Getting Data (Consiguiendo los datos) del Hand-book of the Modern Development Specialist (Manual del especialista moderno del desarrollo) y la OHCHR Guidance para adoptar un Enfoque de los Datos Basado en los Derechos Humanos, que se concentre en la recolección y la desagregación.

Cuando los datos son recogidos personalmente por personas reclutadas para este proceso se requiere una capacitación apropiada. Ellos deben ser capaces de crear un espacio seguro para conseguir el consentimiento informado de las personas cuyos datos están siendo recogidos, y saber cómo evitar los sesgos durante el proceso de recolección.

Incógnitas en los conjuntos de datos existentes

Las iniciativas movidas por datos pueden o bien recoger nueva información, por ejemplo mediante un encuesta de alumnos y profesores en un colegio, o sino usar conjuntos de datos ya existentes a partir de fuentes secundarias, por ejemplo empleando un censo gubernamental o raspando las fuentes de las redes sociales. La protección de datos debe también considerarse cuando planee usar los conjuntos de datos ya existentes, como las imágenes de la tierra para el mapeo espacial. Debe analizar qué tipos de datos quiere usar, y si es necesario usar para ello un conjunto de datos específico. En el caso de los conjuntos de datos provenientes de terceros, es importante saber cómo se obtuvo los que desea usar, si se respetaron los principios de la protección de datos durante la fase de recolección, quién los licenció y quién financió el proceso. De no lograr conseguir estas información deberá considerar cuidadosamente si usarlos o no. Véase el Hand-book del especialista moderno del desarrollo acerca del trabajo con los datos ya existentes.

Beneficios del almacenaje en la nube

Una confiable estrategia de almacenaje en la nube ofrece una mayor seguridad y facilidad de implementación, en comparación con proteger su propio servidor. Si bien un adversario decidido puede siempre hackear computadoras individuales o servidores locales, para ellos es un reto significativamente mayor violar las robustas defensas de proveedores reputados de almacenaje en la nube como Google o Microsoft. Estas compañías aplican extensos recursos de seguridad y tienen un fuerte incentivo empresarial para asegurar la máxima protección a sus usuarios. Al confiar en el almacenaje en la nube, los riesgos comunes como el robo físico, los daños a los dispositivos o el malware pueden mitigarse, puesto que la mayoría de los documentos y datos están guardados de forma segura en la nube. En caso de incidentes es conveniente volver a sincronizar y resumir las operaciones en una computadora nueva o limpiada, con poca o nada de información valiosa accesible localmente.

Haciendo una copia de seguridad de los datos

Tener una copia de respaldo es crucial, independientemente de si los datos están guardados en dispositivos físicos o en la nube. Los primeros corren el riesgo de perder datos debido a diversos incidentes como daños en el hardware, ataques de ransomware o robos. El almacenaje en la nube proporciona una ventaja en este sentido, puesto que elimina la dependencia de dispositivos específicos que pueden quedar comprometidos o perderse. Las soluciones de backup integradas como Time Machine para Macs y File History para Windows, así como los backups automáticos en la nube de iPhones y Androids, ofrecen cierto nivel de protección. Sin embargo, el riesgo del error humano permanece incluso con el almacenaje en la nube, lo que hace que sea aconsejable considerar soluciones adicionales de backup en la nube como Backupify o SpinOne Backup. Los backups de seguridad son aún más importantes en el caso de las organizaciones que usan servidores y dispositivos locales. Se recomienda encriptar los discos duros externos usando contraseñas fuertes, empleando herramientas de encriptación como VeraCrypt o BitLocker, y mantener los dispositivos de respaldo en un lugar distinto que los dispositivos primarios. Guardar una copia en un lugar sumamente seguro, como en una caja fuerte, puede brindar una capa extra de protección en caso de desastres que afecten tanto a las computadoras como a sus copias de respaldo.

Inicio

Preguntas

Hágase estas preguntas si está intentando entender las implicaciones que tiene el no contar con medidas de protección de los datos en su entorno laboral, o si está considerando usarlos como parte de su programación de DRG:

  1. ¿Se han adoptado leyes de protección de los datos en el país o países en cuestión? ¿Estas leyes están alineadas con el derecho internacional de los derechos humanos, e incluyen disposiciones que protejan al derecho a la privacidad?
  2. ¿Cómo cumplirá el uso de los datos en su proyecto con los patrones de protección y privacidad de datos?
  3. ¿Qué tipos de datos planea usar? ¿Son personales o está involucrado algún otro dato sensible?
  4. ¿Qué podría suceder a las personas relacionadas con los datos si el gobierno accediera a éstos?
  5. ¿Qué podría suceder si los datos fuesen vendidos a un actor privado para otros fines de los planeados?
  6. ¿Qué medidas de precaución y mitigación se tomaron para proteger los datos y a las personas relacionadas con ellos?
  7. ¿Cómo se protege a los datos de la manipulación y el acceso y mal uso por parte de terceros?
  8. ¿Contará con suficientes conocimientos integrados durante todo el proyecto para asegurar que los datos sean bien manejados?
  9. Si planea recolectar datos, ¿cuál será su finalidad? ¿Su recolección es necesaria para alcanzar dicho fin?
  10. ¿Cómo se entrena a los recolectores de datos personales? ¿Cómo se genera el consentimiento informado a la hora de recogerse los datos?
  11. De estar creando bases de datos, ¿cómo se garantiza el anonimato de las personas relacionadas con ellos?
  12. ¿Cómo se consiguen y guardan los datos que planea usar? ¿El nivel de protección es apropiado a su sensibilidad?
  13. ¿Quién tiene acceso a los datos? ¿Qué medidas se toman para garantizar que se acceda a ellos para el objetivo planificado?
  14. ¿Qué otras entidades —compañías, socios— procesarán, analizarán, visualizarán y usarán de algún otro modo los datos de su proyecto? ¿Qué medidas se han tomado para protegerlos? ¿Se han establecido acuerdos con ellos para evitar su monetización o mal uso?
  15. ¿De construir una plataforma, ¿cómo protegerá a sus usuarios registrados?
  16. ¿La base de datos, el sistema de su almacenaje o la plataforma son auditables por investigadores independientes?

Inicio

Estudios de caso

People Living with HIV Stigma Index and Implementation Brief

El People Living with HIV Stigma Index (Índice de estigma y discriminación en personas con VIH) es un cuestionario y estrategia de muestreo estandarizados, para recoger datos cruciales acerca de los estigmas intersecados y la discriminación que afectan a las personas que viven con VIH. Éste monitorea el estigma y la discriminación relacionados con el VIH en diversos países y presenta evidencias para su defensa en ellos. Los datos de este proyecto son las experiencias de personas que viven con VIH. El implementation brief (Breviario de implementación) muestra medidas de protección de datos. Quienes viven con VIH se encuentran al centro de todo el proceso, vinculando continuamente a los datos que se recogen acerca de ellos con las personas mismas, comenzando con el diseño de la investigación y pasando a la implementación y al uso de los hallazgos para prestarles apoyo. Los datos se recogen mediante un proceso de entrevistas de par a par, con las personas que viven con VIH de diversos antecedentes sirviendo como entrevistadores capacitados. Se ha diseñado una metodología estándar de implementación, que incluye el establecimiento de un comité de conducción con partes interesadas claves y grupos de población.

La protección de datos del Love Matters Program de RNW Media

El Love Matters Program de RNW Media ofrece plataformas en línea para fomentar la discusión y compartir información sobre el amor, el sexo y las relaciones con personas de 18 a 30 años, en áreas en donde la información sobre la salud y derechos sexuales y reproductivos (SDSR) sigue censurada o es tabú. Los equipos digitales de RNW Media introdujeron enfoques creativos al procesamiento y análisis de los datos, metodologías de Social Listening y técnicas de procesamiento de lenguajes naturales para hacer más inclusivas a las plataformas, crear contenidos focalizados e identificar a influencers y trending topics. Los gobiernos han impuesto restricciones tales como tasas de licencia o registros para influencers en línea, como una forma de monitorear y bloquear contenidos “indeseables”, y RNW Media ha invertido en la seguridad de sus plataformas y los conocimientos de los usuarios para protegerlos del acceso a su información personal sensible. Lea más en la publicación ‘33 Showcases – Digitalisation and Development – Inspiration from Dutch development cooperation’ (33 Vitrinas – Digitalización y desarrollo – Inspiración de la cooperación holandesa para el desarrollo), Ministerio de Asuntos Exteriores de Holanda, 2019, p 12-14.

Informe de Amnistía Internacional

Informe de Amnistía Internacional

Cada día, miles de activistas y organizaciones por la democracia y los derechos humanos dependen de canales de comunicación seguros para conservar la confidencialidad de sus conversaciones en entornos políticos difíciles. Sin semejantes prácticas de seguridad, los mensajes sensibles pueden ser interceptados y usados por las autoridades para poner la mira en los activistas y disolver las protestas. Un ejemplo prominente y detallado de esto tuvo lugar luego de las elecciones de 2010 en Bielorrusia. Tal como se detalla en este informe de Amnistía Internacional, las grabaciones telefónicas y otras comunicaciones no encriptadas fueron interceptadas por el gobierno y usadas en los tribunales contra prominentes políticos y activistas opositores, muchos de los cuales pasaron años en prisión. En 2020, otra oleada de protestas postelectorales en Bielorrusia vio a miles de manifestantes adoptando apps de mensajería seguras y amistosas para con los usuarios —que no eran fácilmente disponibles 10 años antes— para proteger sus comunicaciones sensibles.

Datos del parlamento noruego

Datos del parlamento noruego

El Storting, el parlamento noruego, ha experimentado otro ciberataque que involucró el uso de vulnerabilidades recién descubiertas en Microsoft Exchange. Estas vulnerabilidades, a las que se conoce como ProxyLogon, fueron enfrentadas con parches de seguridad de emergencia lanzados por Microsoft. Los ataques iniciales fueron atribuidos a un grupo de hackeo chino bajo auspicio estatal llamado HAFNIUM, que utilizó las vulnerabilidades para comprometer los servidores, establecer web shells de puerta trasera y conseguir acceso no autorizado a las redes internas de diversas organizaciones. Los repetidos ciberataques al Storting y la participación de diversos grupos de hackers subrayan la importancia de la protección de datos, las actualizaciones de seguridad oportunas y medidas proactivas para mitigar los riesgos informáticos. Las organizaciones deben permanecer vigilantes, mantenerse informadas de las últimas vulnerabilidades y tomar las medidas apropiadas para resguardar sus sistemas y datos.

Girl Effect

Girl Effect, una organización creativa sin fines de lucro, que opera en lugares donde las muchachas están marginadas y son vulnerables, usa los medios y la tecnología móvil para empoderarlas. La organización emplea las herramientas e intervenciones digitales, y reconoce que toda organización que use datos tiene también la responsabilidad de proteger a la gente con la que habla o con la que se conecta en línea. Su ‘Digital safeguarding tips and guidance’ (Consejos y guía de protección digital) brinda una guía a profundidad sobre la implementación de medidas para la protección de datos cuando se trabaja con personas vulnerables. Oxfam, que menciona a Girl Effect como inspiración, ha desarrollado e implementado una Política de datos responsable y comparte muchos recursos en línea de respaldo. La publicación ‘Privacy and data security under GDPR for quantitative impact evaluation’ (Privacidad y seguridad de los datos bajo el RGPD para una evaluación de impacto cuantitativa) brinda detalladas consideraciones acerca de las medidas de protección de los datos que Oxfam implementa, cuando efectúa una evaluación de impacto cuantitativo mediante encuestas y entrevistas digitales y en papel.

Inicio

Referencias

A continuación aparecen los trabajos citados en este recurso.

Recursos adicionales

Inicio

Categories

ID Digital

¿Qué es el ID digital?

Familias desplazadas por la violencia de Boko Haram en Maiduguri, Nigeria nororiental. La implementación de un sistema de ID digital requiere del consentimiento informado de los participantes. Crédito de la fotografía: USAID.
Familias desplazadas por la violencia de Boko Haram en Maiduguri, Nigeria nororiental. La implementación de un sistema de ID digital requiere del consentimiento informado de los participantes. Crédito de la fotografía: USAID.

Los sistemas de ID digital son los que dependen de la tecnología digital. La tecnología biométrica es un tipo de herramienta usada a menudo para la identificación digital: la biometría permite a la gente probar su identidad a partir de una característica o rasgo físico (dato biológico). Otras formas de identificación digital incluyen las tarjetas y tecnologías móviles. Este recurso, que se apoya en el trabajo de The Engine Room, examinará las distintas formas y las implicaciones de las ID digitales, con atención particular en las biométricas, lo que incluye su integración con los sistemas de salud y su potencial para la participación electrónica.

“La biometría no es nueva; las fotografías se han usado en este sector durante años, pero el discurso actual en torno a la ‘biométrica’ usualmente se refiere a las huellas digitales, huellas faciales y reconocimiento del iris. A medida que la tecnología continúe avanzando, la capacidad de capturar otras formas de datos biométricos también irá mejorando de modo tal que las huellas de voz, escaneos retinales, patrones de venas, huellas linguales, movimientos labiales, patrones de orejas, la caminata y, claro está, el ADN podrán usarse con fines de autenticación e identificación”.

The Engine Room

Definiciones

Datos biométricos: las características físicas o rasgos personales distintivos automáticamente mensurables, usados para identificar o verificar la identidad de una persona.

Consentimiento: el artículo 4(11) del Reglamento General de Protección de Datos (RGPD) define el consentimiento: “El consentimiento del sujeto de los datos quiere decir toda indicación libremente dada, específica, informada e inequívoca del deseo de dicho sujeto, mediante una declaración o clara acción afirmativa, que significa su acuerdo al procesamiento de los datos personales relacionados con él o ella”. Véase también el recurso de Protección de datos.

Sujeto de los datos: la persona cuyos datos se recogen.

ID digital: un sistema electrónico de manejo de la identidad usado para probar la identidad de una persona o su derecho a acceder a información o servicios.

Voto electrónico: un sistema electoral que permite a un votante expedir electrónicamente su voto seguro y secreto.

Sistemas biométricos fundamentales: sistemas que proveen una identificación general para usos oficiales, como el registro civil nacional y el ID nacional.

Sistemas biométricos funcionales: sistemas que responden a una demanda de un servicio o transacción particular, como la ID de un votante, registros de salud o servicios financieros.

Identificación/autenticación de uno a muchos: el uso del identificador biométrico para identificar al sujeto de los datos dentro de una base de datos de otros perfiles biométricos.

Inmutabilidad: la cualidad de una característica que no cambia con el tiempo (por ejemplo, el ADN).

Identidad portátil: las credenciales del ID digital de una persona pueden ser llevadas consigo más allá de la autoridad emisora original, para así probar la identidad oficial a nuevas relaciones/entidades del usuario sin tener que repetir la verificación en cada oportunidad.

Identidad autosoberana: una ID digital que da al sujeto de los datos la propiedad plena sobre su identidad digital, garantizándole su portabilidad vitalicia independientemente de toda autoridad central.

Singularidad: una característica que distingue suficientemente a una persona de otra. La mayoría de las formas de datos biométricos son singularmente únicos a la persona involucrada.

Verificación/autenticación uno a uno: el uso del identificador biométrico para confirmar que el sujeto de los datos es quien afirma ser.

¿Cómo funciona la ID digital?

Joven mujer iraquí retratada en el campamento de IDP de Harsham en Erbil, Iraq. Los ID digital y la biometría tienen el potencial para facilitar el proceso de votación. Crédito de la fotografía: Jim Huylebroek para Creative Associates International.
Joven mujer iraquí retratada en el campamento de IDP de Harsham en Erbil, Iraq. Los ID digital y la biometría tienen el potencial para facilitar el proceso de votación. Crédito de la fotografía: Jim Huylebroek para Creative Associates International.

Hay tres principales categorías de tecnología usada en la identificación digital: biometría, tarjetas y móvil. Dentro de cada una de estas áreas hay una amplia gama de tecnologías a las cuales se puede usar.

El NIST (National Institute of Standards and Technology, una de las principales autoridades internacionales de ID digitales) identifica tres partes en cómo es que el proceso de ID digital opera.

1ª parte: prueba y registro de identidad

Este es el proceso de ligar los datos de la identidad del sujeto con un autenticador, que es una herramienta usada para probar su identidad.

  • Con un ID biométrico, esto involucra la recolección de los datos (mediante el escaneo ocular, la toma de huellas digitales, la presentación de un selfie, etc.) que verifican que la persona es quien dice ser, y la conexión de dicha persona con una cuenta de identidad (perfil).
  • Con un ID no biométrico, esto involucra entregarle a la persona una herramienta (un autenticador) que podrá usar para su autenticación, como una clave, un código de barras, etc.

2a parte: autenticación

Este es el proceso de usar la ID digital para probar la identidad o acceder a servicios.

Autenticación biométrica: hay dos tipos distintos de autenticación biométrica.

  • La verificación biométrica (o autenticación uno a uno) confirma que la persona es quien dice ser. Esto permite a las organizaciones establecer, por ejemplo, que una persona tiene derecho a ciertos alimentos, vacunas o vivienda.
  • La identificación biométrica (o autenticación uno a muchos) se usa para identificar a una persona dentro de una base de datos de perfiles biométricos. Las organizaciones pueden emplear la biometría para prevenir las inscripciones fraudulentas y para “des-duplicar” listas de personas. Los sistemas de autenticación uno a muchos presentan más riesgos que los sistemas uno a uno porque requieren que una mayor cantidad de datos sean almacenados en un lugar, y porque conducen a más coincidencias falsas. (Lea más en la sección Riesgos).

El cuadro que aparece a continuación resume las ventajas y desventajas de las distintas herramientas de identificación biométrica. Para mayores detalles consúltese “Technology Landscape for Digital Identification (2018)” del Banco Mundial.

Herramienta biométricaVentajasDesventajas
Huellas dactilaresMenos invasiva física/personalmente; método avanzado y relativamente asequibleNo es plenamente inclusiva; algunas huellas dactilares son más difíciles de captar que otras
Escaneo del iris
Rápido, preciso, inclusivo y seguroTecnología más costosa, la verificación requiere de un posicionamiento preciso del sujeto de los datos; puede ser mal utilizada para fines de vigilancia (verificación sin permiso del sujeto de los datos)
Reconocimiento facialRelativamente asequibleProclive al error; puede ser mal utilizada con fines de vigilancia (verificación sin permiso del sujeto de los datos); no hay suficiente estandarización entre los proveedores de la tecnología, lo que podría generar una dependencia del proveedor
Reconocimiento de vozRelativamente asequible; no hay problemas de higiene (a diferencia de otra biometría que requiere del tacto)El proceso de recolección puede ser difícil y tomar mucho tiempo; es difícil ampliar la escala de esta tecnología
Reconocimiento conductual, también conocida como “Biometría suave” (esto es, la caminata de una persona, el modo en que firma)Puede usarse en tiempo realProclive al error; aún no es una tecnología madura; podría ser mal utilizada con fines de vigilancia (verificación sin permiso del sujeto de los datos)
Reconocimiento vascular (El patrón singular de venas de una persona)Tecnología segura, precisa e inclusivaMás costosa; aún no es una tecnología madura y no es ampliamente entendida; no es interoperable/los datos no son fácilmente portables
Perfil de ADNSeguro; preciso; inclusivo; útil para poblaciones grandesEl proceso de recolección es largo; la tecnología es costosa; involucra información extremadamente sensible a la cual se podría usar para identificar la raza, género y relaciones familiares, etc., lo que podría poner en riesgo a la persona

Autenticación no biométrica: hay dos formas comunes de ID digital que no están basadas en características o rasgos personales, y que también tienen métodos de autenticación. Las tarjetas y aplicaciones digitales de IA en los dispositivos móviles pueden también usarse para probar la identidad o acceder a servicios o asistencia (como un pasaporte, tarjeta de residencia o licencia de conducir).

  • Tarjetas: estas son un identificador digital común, que pueden depender de muchos tipos de tecnología, desde los microchips a los códigos de barras. Las tarjetas han estado en uso por un largo tiempo, lo que las hace una tecnología madura, pero también son menos seguras porque pueden perderse o ser robadas. Hay “tarjetas inteligentes” bajo la forma de un microchip insertado combinado con una contraseña. Las tarjetas también pueden combinarse con los sistemas biométricos. Por ejemplo, Mastercard y Thales comenzaron a ofrecer tarjetas con sensores de huellas dactilares en enero de 2020.
  • Apps en dispositivos móviles: los ID digitales pueden usarse en dispositivos móviles dependiendo de una contraseña, una tarjeta SIM “criptográfica” (especialmente codificada) o una app de “ID inteligente”. Estos métodos son bastante precisos y ampliables de escala, pero tienen riesgos de seguridad y también riesgos en el largo plazo debido a la dependencia de los proveedores de tecnología: la tecnología podría no ser interoperable o hacerse obsoleta (véase Privatización del ID y Dependencia del vendedor en la sección Riesgos ).

Part 3a parte: portabilidad e interoperabilidad

Las ID digitales usualmente son generadas para una persona por una sola autoridad emisora (ONG, entidad gubernamental, proveedor de salud, etc.). Sin embargo, la portabilidad quiere decir que los sistemas de ID digitales pueden diseñarse para permitir que la persona utilice su ID en otros lugares además de la autoridad emisora, por ejemplo con otra entidad gubernamental u organización sin fines de lucro.

Para entender la interoperabilidad, considere por ejemplo a distintos proveedores de mensajes electrónicos como Gmail y Yahoo Mail: son distintos proveedores de servicio pero sus usuarios pueden enviarse mensajes entre ellos. La portabilidad e interoperabilidad de los datos son cruciales desde una perspectiva fundamental de los derechos, pero primero es necesario que distintas redes (proveedores, gobiernos) sean operables entre sí para que la portabilidad sea posible. La interoperabilidad es cada vez más importante para proporcionar servicios dentro y entre países, como se puede ver en la
Unión Europea y la comunidad Schengen, la comunidad de África Oriental y la comunidad ECOWAS de África occidental.

La identidad autosoberana (SSI) es un importante tipo emergente de ID digital que da a una persona la propiedad total de su identidad digital, garantizando así su portabilidad vitalicia independientemente de toda autoridad central. El modelo de la identidad autosoberana busca eliminar los problemas de confianza y los desequilibrios de poder que acompañan por lo general a la identidad digital, dándole a la persona el control total de sus datos.

Inicio

¿De qué modo es la ID digital relevante en el espacio cívico y para la democracia?

La gente de todo el mundo que no está identificada con documentos gubernamentales enfrenta unas barreras significativas para la recepción de servicios del gobierno y asistencia humanitaria. La biometría es ampliamente usada por los donantes y actores del desarrollo para identificar a las personas y conectarlas con los servicios. La tecnología biométrica podría incrementar el acceso a las finanzas, el cuidado de la salud, la educación y otros servicios y beneficios cruciales. También podría emplearse para registrar votantes y facilitar la participación cívica.

Una residente de Garin Wazam, en Níger, canjea su vale electrónico por comida. La tecnología biométrica puede incrementar el acceso a servicios y beneficios cruciales. Crédito de la fotografía: Guimba Souleymane, International Red Cross Niger.

El Alto Comisionado de las Naciones Unidas para los Refugiados (ACNUR) dio inicio a su Sistema de Gestión de Identidad Biométrica (“BIMS”) en 2015, y al año siguiente el World Food Program comenzó a usar la biometría para múltiples fines, entre ellos la protección de refugiados, intervenciones basadas en dinero en efectivo y la inscripción de votantes. En los últimos años, una creciente preferencia por el suministro de la asistencia en dinero en efectivo en estas intervenciones formó parte del impulso hacia la ID digital y la biometría, puesto que estas herramientas pueden monitorear y reportar la distribución de la ayuda.

La naturaleza automatizada de la ID digital trae consigo muchos nuevos retos, desde la recolección del consentimiento significativamente informado hasta el garantizar la seguridad personal y a nivel de las organizaciones, o a posiblemente causar daños a la dignidad humana o una creciente exclusión. Estos problemas técnicos y sociales se detallan en la
sección Riesgos.

Principios éticos de la biometría

Fundado en julio de 2001 en Australia, el Biometrics Institute es una organización de membresía independiente e internacional de la comunidad biométrica. En marzo de 2019, ésta presentó los siete “Ethical Principles for Biometrics” (Principios éticos de la biometría).

  1. Comportamiento ético: reconocemos que nuestros miembros deben actuar éticamente incluso más allá de lo que la ley requiere. Con comportamiento ético se entiende evitar actos que dañen a las personas y a su entorno.
  2. Propiedad de la biometría y respeto por los datos individuales de una persona: aceptamos que las personas tienen una propiedad significativa pero no total de sus datos personales (independientemente de dónde se les guarde y procese) y de su biometría en particular, lo que requiere que sus datos deberán ser respetados y tratados con el mayor cuidado posible por otros, incluso cuando se les comparta.
  3. Servir a los humanos: sostenemos que la tecnología debe servir a los humanos y que debiera tener en cuenta el bien público, la seguridad de la comunidad y los beneficios netos de las personas.
  4. Justicia y rendición de cuentas: aceptamos los principios de apertura, supervisión independiente, rendición de cuentas y el derecho de apelación y la debida reparación.
  5. Promover la tecnología que mejore la privacidad: promovemos la más alta calidad del uso de la tecnología apropiada, lo que incluye la precisión, la detección y reparación de errores, sistemas resistentes y el control de calidad.
  6. Reconocer la dignidad e iguales derechos: apoyamos el reconocimiento de la dignidad y la igualdad de derechos para todas las personas y familias como la base de la libertad, la justicia y la paz en el mundo, en consonancia con la Declaración universal de los derechos humanos de las Naciones Unidas.
  7. Igualdad: promovemos la planificación e implementación de la tecnología para prevenir la discriminación o el sesgo sistémico basados en la religión, la edad, el género, la raza, sexualidad u otros descriptores de los humanos.

Inicio

Oportunidades

Registro biométrico de los votantes en Kenia. La recolección y el almacenaje de los datos biométricos requieren de fuertes medidas de protección de datos. Crédito de la fotografía: USAID/Kenya Jefrey Karang’ae.

Hágase estas preguntas si está intentando entender las implicaciones de los ID digitales en su entorno laboral, o si está considerando usar algunos aspectos de ellos como parte de sus programas de DRG:
Reducción potencial del fraude

La biometría es frecuentemente citada por su potencial para reducir el fraude y, más en general, gestionar el riesgo financiero al facilitar la supervisión de debida diligencia y el escrutinio de las transacciones. Según The Engine Room, estas son justificaciones frecuentemente citadas para el uso de la biometría entre los actores de desarrollo y humanitarios, pero The Engine Room también halló que faltan evidencias con que respaldar esta afirmación. No debiera asumirse que el fraude se da sólo a nivel de los beneficiarios: los problemas reales de fraude podrían tener lugar en cualquier parte de un ecosistema.

Facilitando el voto electrónico

Más allá de la distribución de dinero y servicios, el potencial de los ID digitales y la biometría es facilitar el proceso de votación. El derecho a votar, y más en general a participar en procesos democráticos, es un derecho humano fundamental. Recientemente, el uso de sistemas con un registro biométrico de los votantes y de la votación se ha difundido más como medio de empoderar la participación cívica, de asegurar más a los sistemas electorales, y como protección del fraude en la votación y de las inscripciones múltiples.

Los promotores sostienen que el voto electrónico podría reducir los costos de participación y hacer que el proceso sea más confiable. Los críticos, entretanto, afirman que los sistemas digitales corren el riesgo de fallos, abusos y violaciones a la seguridad. La manipulación de las boletas electrónicas, un código mal escrito o cualquier otro tipo de fallo técnico podría comprometer el proceso democrático, en particular cuando no se cuenta con el respaldo de una huella de papel. Para mayor información consúltese
Introducing Biometric Technology in Elections” (2017), del International Institute for Democracy and Electoral Assistance, que incluye estudios de caso detallados sobre el voto electrónico en Bangladesh, Fiyi, Mongolia, Nigeria, Uganda y Zambia.

Historiales médicos

Proteger los expedientes médicos electrónicos, en particular cuando los servicios de cuidado son suministrados por múltiples actores, podría ser algo muy complicado, costoso e ineficiente. Dado que la biometría liga a un único verificador con una sola persona, son útiles para identificar a los pacientes, y permiten que los médicos y los proveedores de salud conecten a una persona con información de su salud y su historial médico. La biometría tiene potencial en la distribución de vacunas, por ejemplo al poder identificar quién ha recibido vacunas específicas (véase el estudio de caso de The New Humanitarian acerca de la tecnología Gavi).

El acceso al cuidado de salud puede ser particularmente complicado en las zonas de conflicto para los migrantes y personas desplazadas, o para otros grupos que no cuentan con su expediente de salud documentado. Con la biometría interoperable, cuando los pacientes necesitan transferirse de un servicio a otro por cualesquier razón, su información digital puede viajar con ellos. Para mayor información consúltese World Bank Group ID4D, “The Role of Digital Identification for Healthcare: The Emerging Use Cases” (2018).

Mayor acceso a intervenciones basadas en dinero en efectivo

Los sistemas de ID digital tienen el potencial para incluir a los grupos no bancarizados o subatendidos por las instituciones financieras en la economía local o hasta global. El ID digital da a las personas acceso a servicios financieros regulados al permitirles probar su identidad oficial. Las poblaciones en áreas remotas pueden beneficiarse en particular con ID digitales, que permiten el proofing/inscripción remota o no de rostro a rostro para la identificación /verificación de los clientes. La biometría puede asimismo hacer que los servicios bancarios sean mucho más eficientes, reduciendo los requisitos y obstáculos que los beneficiarios normalmente enfrentarían. La WFP brinda un ejemplo de una exitosa intervención con dinero en efectivo: en 2017 lanzó su primera asistencia basada en efectivo para niñas de colegios secundarios en Pakistán noroccidental, usando los datos biométricos de asistencia.

Según el Grupo de Acción Financiera Internacional la biometría refuerza aún más las salvaguardas financieras al llevar más gente al sector financiero regulado.

Mejor distribución de la asistencia y de los beneficios sociales

Los sistemas biométricos pueden reducir gran parte del tiempo y esfuerzo humanos que yacen detrás de la asistencia, liberando así recursos humanos para dedicarlos al suministro de los servicios. La biometría permite que el suministro de asistencia sea entregado en tiempo real, lo que permite a los gobiernos y organizaciones de asistencia responder rápidamente a los problemas de los beneficiarios.

La biometría también permite reducir las redundancias en la entrega de beneficios sociales y de subvenciones. Por ejemplo, en 2015 el Grupo del Banco Mundial halló que en Botsuana, los ID digitales biométricos alcanzaron un ahorro del 25 por ciento en pensiones y subvenciones sociales identificando registros duplicados y beneficiarios fallecidos. En efecto, el problema de los beneficiarios “fantasmas” es un problema común. En 2019, el
Fondo de Pensiones del Gobierno de Namibia (GIPF) comenzó a pedir a los receptores de pensiones que inscribieran su biometría en la oficina más cercana del GIPF y que regresaran para verificar su identidad tres veces al año. La distribución de los beneficios sociales puede, claro está, ser asistida por la biometría pero también requiere de supervisión humana, dada la posibilidad de problemas técnicos en el suministro del servicio digital y la naturaleza crítica de dichos servicios (véase más detalles en la sección de Riesgos).

Prueba de identidad

Los migrantes, refugiados y personas en busca de asilo a menudo luchan por probar y conservar su identidad cuando se reubican. Cuando huyen de su hogar, muchos pierden la prueba de su identidad legal y de sus activos, por ejemplo, títulos y certificaciones, expedientes médicos y activos financieros. Una biometría diseñada responsablemente podría ayudar a estas poblaciones a restablecerse y a conservar la prueba de su identidad. En Finlandia, por ejemplo, una startup de blockchain llamada MONI viene trabajando desde 2015 con el Servicio Migratorio finés para dar a los refugiados que hay en el país una tarjeta de crédito prepagada, respaldada por un número de identidad digital guardado en un blockchain. El diseño de estas tecnologías es crucial: los datos debieran estar distribuidos antes que centralizados, para así prevenir riesgos de seguridad y la mala utilización o abusos que vienen con la propiedad centralizada de la información sensible.

Inicio

Riesgos

El uso de tecnologías emergentes puede asimismo crear riesgos en los programas de la sociedad civil. Lea a continuación cómo distinguir los posibles riesgos asociados con el uso de las herramientas de ID digital en el trabajo DRG.

Deshumanización de los beneficiarios

La forma en que se considera a la biometría —el otorgamiento de identidad a una persona como si no la hubiese tenido antes— podría ser considerada problemática y hasta deshumanizadora.

Tal como The Engine Room
explica, “el discurso en torno a los beneficios de ‘identificabilidad’ de la biometría en las intervenciones humanitarias frecuentemente tiende a incluir el papel que ésta puede tener. Las organizaciones humanitarias no pueden ‘dar’ una identidad a un beneficiario, sólo pueden registrar las características identificadoras y cotejarlas con otros registros. Tratar la adquisición de datos biométricos como si fuesen un elemento constitutivo de la identidad corre el riesgo de deshumanizar a los beneficiarios, la mayoría de los cuales ya de por sí están desamparados en su relación con las entidades humanitarias de las cuales dependen para su supervivencia. Esta actitud resulta evidente en las observaciones hechas por un refugiado birmano al que se le estaban tomando las huellas dactilares en Malasia en 2006 —‘No sé para qué es, pero sí que es lo que ACNUR desea que haga’—, así como en las palabras de un refugiado congolés en Malawi, quien al completar el registro biométrico le dijo al personal: ‘Ya puedo ser alguien’”.

Falta de consentimiento informado

Es crucial obtener el consentimiento informado de las personas en el proceso de inscripción biométrico. Pero este raramente es el caso en los entornos humanitarios y de desarrollo, dados los muchos aspectos técnicos confusos de la tecnología, la lengua y las barreras culturales, etc. Un acuerdo que es potencialmente forzado, no constituye consentimiento, tal como lo ilustra el caso del programa de registro biométrico en Kenia, el cual fue impugnado en los tribunales después de que muchos kenianos se sintieran presionados a inscribirse. Resulta difícil garantizar o siquiera evaluar el consentimiento cuando el desequilibrio de poder entre la autoridad emisora y el sujeto de los datos es tan sustancial. “Los refugiados, por ejemplo, podrían sentir que no tienen otra opción que dar su información porque se encuentran en situación vulnerable”.

Los menores de edad también corren un riesgo similar de un consentimiento coactado o no informado. Como The Engine Room señalara en 2016, “el ACNUR ha adoptado la postura de que la negativa a someterse a la inscripción biométrica equivale a una negativa a inscribirse en absoluto. De ser esto cierto, estaría restringiendo el derecho de los beneficiarios a cuestionar el recojo de datos biométricos, y crearía un desincentivo considerable para los beneficiarios que manifiestan su oposición al enfoque biométrico”.

Para que el consentimiento sea realmente dado, la persona debe contar con un método alternativo para que sienta que puede rechazar el procedimiento sin ser penalizado de modo desproporcionado. Las organizaciones de la sociedad civil podrían tener un papel importante en ayudar a remediar este desequilibrio de poder.

Riesgos de seguridad

Los sistemas de ID digital ofrecen muchas características de seguridad importantes, pero incrementan otros riesgos de seguridad como el de la filtración de los datos, su corrupción o uso/mal uso por parte de actores no autorizados. Dichos sistemas pueden involucrar datos sumamente detallados acerca de los comportamientos y movimientos de personas vulnerables, por ejemplo su historia financiera y su asistencia a colegios, clínicas de salud y establecimientos religiosos. Esta información podría usarse en su contra de caer en manos de otros actores (gobiernos corruptos, marketeros, delincuentes).

La pérdida, robo o mal uso de los datos biométricos son algunos de los
riesgos más grandes para las organizaciones que emplean estas tecnologías. Al recoger y almacenar sus datos biométricos en bases de datos centralizadas, las organizaciones de asistencia podrían estar poniendo a sus beneficiarios en serio riesgo, en particular si éstos están huyendo de persecuciones o conflictos. Como la ID digital en general depende de la Internet o de alguna otra red de comunicación abierta, son muchas las oportunidades para que se den ciberataques y violaciones de seguridad. The Engine Room también cita información anecdótica de trabajadores humanitarios que pierden laptops, llaves USB y otros archivos digitales que contienen los datos de los beneficiarios. Consúltese también el recurso de Protección de datos.

Reutilización y mal uso de los datos

Dado que la biometría es única e inmutable, una vez que los datos biométricos están afuera en el mundo la gente ya no es más la única propietaria de sus identificadores. The Engine Room describe esto como la “no revocabilidad” de la biometría. Esto quiere decir que la biometría podría ser usada para otros fines fuera de su objetivo original. Por ejemplo, los gobiernos podrían requerir que los actores humanitarios les den acceso a las bases de datos biométricas con fines políticos, o los países extranjeros podrían obtener datos biométricos con fines de inteligencia. Las personas no pueden cambiar fácilmente su biometría, como sí lo harían con una licencia de conducir o siquiera su nombre: por ejemplo, con el reconocimiento facial tendrían que tener cirugía plástica a fin de retirar sus datos biométricos.

También se corre el riesgo de que la biometría sea usada por futuras tecnologías aún más intrusivas o dañinas que sus actuales usos. “Los gobiernos que reciben grandes poblaciones de refugiados, como el Líbano, han reclamado el derecho a tener acceso a la base de datos biométrica del ACNUR, y los Estados donantes han respaldado el uso que éste hace de la biometría por su interés en emplear los datos biométricos adquiridos como parte de su así llamada “guerra contra el terror” en curso.

The Engine Room

Para más información acerca de la potencial reutilización de los datos biométricos con fines de vigilancia consúltese también “Aiding surveillance: An exploration of how development and humanitarian aid initiatives are enabling surveillance in developing countries,” I&N Working Paper (2014).

Fallos y errores

Los sistemas de ID digital pueden experimentar muchos errores porque son demasiado técnicos y dependen de múltiples pasos y mecanismos. La biometría puede devolver falsas coincidencias y ligar a una persona con la identidad incorrecta, o falsos negativos, no vinculando a uno con su identidad real. Cuando se la aplica en comunidades reales, la tecnología no siempre funciona tal como lo hace en el laboratorio. Es más, algunas poblaciones se ven más perjudicadas con los errores que otras: por ejemplo, y como ya ha sido ampliamente probado, la gente de color es la que con mayor frecuencia es mal identificada por la tecnología de reconocimiento facial.

Algunas tecnologías son más proclives a los errores que otras; por ejemplo la biometría suave, que mide elementos tales como la caminata de una persona, es una tecnología menos madura y precisa que los escaneos de iris. Hasta las huellas dactilares siguen teniendo una alta tasa de error no obstante ser relativamente madura y ampliamente usada. La performance de ciertas biomedidas puede asimismo ir cayendo con el paso del tiempo: el envejecimiento puede cambiar las características faciales de una persona y hasta sus iris, en formas tales que podrían impedir la autenticación biométrica. La ID digital puede también sufrir por problemas de conectividad: la falta de una infraestructura confiable podría reducir el funcionamiento del sistema en un área geográfica particular durante un lapso significativo. Para mitigar esto es importante que los sistemas de ID digital sean diseñados para apoyar tanto las transacciones en línea como las que son offline.

Cuando se trata de proporcionar servicios que salvan vidas, hasta un pequeño error o fallo durante un solo paso del proceso podría provocar un daño severo. A diferencia de los procesos manuales, en donde los humanos están involucrados y pueden intervenir en caso de error, los procesos automatizados traen consigo la posibilidad de que nadie advierta un tecnicismo aparentemente pequeño hasta que sea demasiado tarde.

Potencial para excluir

Según The Engine Room, la biometría puede excluir personas por diversas razones: “Las personas podrían ser reacias a someterse a brindar muestras biométricas debido a desequilibrios culturales, de género o de poder. Obtener las muestras biométricas podría ser más difícil para las personas de piel más oscura o con discapacidades. La toma de huellas dactilares, en particular, podría ser difícil de efectuar correctamente, en especial cuando las de los beneficiarios son menos pronunciadas debido al trabajo manual y rural. Todos estos aspectos podrían inhibir el que las personas den sus datos biométricos, y excluirles por ende del suministro de asistencia”.

Los tipos de errores mencionados en la sección anterior son más frecuentes con respecto a las poblaciones de minorías que tienden a estar subrepresentadas en los conjuntos de datos de entrenamiento, por ejemplo las personas de color o con discapacidades.

La falta de acceso a la tecnología o los menores niveles de competencia tecnológica podrían agravar la exclusión: por ejemplo, la falta de acceso a teléfonos inteligentes o la falta de datos o cobertura de los celulares podría incrementar la exclusión en el caso de los sistemas de ID que dependen de los celulares. Los trabajadores manuales, como ya se dijo, usualmente tienen huellas dactilares gastadas que podrían resultar difíciles de leer cuando se usan lectores biométricos; de igual modo los ancianos podrían experimentar fallos en las coincidencias debido a cambios en sus características faciales, como la pérdida de cabellos u otras señales de envejecimiento o enfermedad, todo lo cual incrementa el riesgo de exclusión.

El World Bank ID4D program explica que a menudo observan tasas diferenciales en la cobertura de los siguientes grupos y sus intersecciones: mujeres y niñas, niños huérfanos y vulnerables; niños pobres; poblaciones rurales; minorías etnolingüísticas; migrantes y refugiados; poblaciones sin Estado o poblaciones en riesgo de estarlo; ancianos; personas con discapacidades; personas no nacionales. Vale la pena enfatizar que estos grupos tienden a ser las poblaciones más vulnerables de la sociedad: precisamente aquellos a quienes la tecnología biométrica y la ID digital busca incluir y empoderar. Cuando consideremos qué tipos de ID o de tecnología biométrica emplear, será crucial evaluar todos estos tipos de posibles errores en relación con la población, y en particular en cómo mitigar la exclusión de ciertos grupos.

Regulación insuficiente

“La tecnología está moviéndose con tanta rapidez que las leyes y regulaciones tienen problemas para mantenerse al día… Al no tener una clara legislación internacional, las empresas en el mundo biométrico a menudo se enfrentan con este dilema: ‘¿Porque puedo hacerlo, debiera hacerlo’”?

ISABELLE MOELLER, DIRECTORA EJECUTIVA DEL BIOMETRICS INSTITUTE

Las tecnologías de identificación digital existen en un entorno regulador en continua evolución, que presenta problemas para proveedores y beneficiarios por igual. Hay muchos intentos de crear estándares internacionales de la biometría y el ID digital, por ejemplo por parte de la Organización Internacional de Normalización (ISO) y la Comisión Electrotécnica Internacional (IEC). Pero más allá del RGPD, aún no hay suficiente regulación internacional para imponer estos estándares en muchos de los países en donde están siendo implementados.

Privatización del ID y dependencia del proveedor

La tecnología detrás de las identidades digitales y la biometría casi siempre es proporcionada por actores del sector privado, a menudo en asociación con gobiernos y organizaciones e instituciones internacionales. El importante papel desempeñado por el sector privado en la creación y el mantenimiento de los ID digitales podría poner tanto a beneficiarios como a organizaciones humanitarias y gobiernos en riesgo de depender del proveedor: si el costo del cambio a un nuevo proveedor del servicio es demasiado costoso u oneroso, la organización/actor podría verse forzada a quedarse con el proveedor original. La dependencia exagerada de un proveedor del sector privado podría también traer consigo riesgos de seguridad (por ejemplo, cuando la tecnología del proveedor original es insegura) y plantear problemas a la asociación con otros servicios y proveedores cuando la tecnología no es interoperable. Por estas razones es importante que la tecnología sea interoperable y que esté diseñada con estándares abiertos.

Retiro del reconocimiento facial de IBM
En junio de 2022, IBM decidió retirar su tecnología de reconocimiento facial del uso de las agencias policiales de EE.UU. Estas decisiones aisladas por parte de actores privados no debieran reemplazar los juicios y regulaciones legales. Debbie Reynolds, funcionaria de privacidad de datos de Women in Identity, cree que el reconocimiento facial no habrá de desaparecer pronto, de modo tal que considerando las muchas fallas que la tecnología tiene actualmente, las compañías debieran concentrarse en mejorarla aún más en lugar de suspenderla. La regulación e imposición internacional es necesaria ante todo y sobre todo, puesto que esto dará a los actores privados directrices e incentivos para diseñar una tecnología responsable y que respete los derechos en el largo plazo.

Inicio

Preguntas

Hágase las siguientes preguntas si está considerando usar herramientas de ID digital como parte de sus programas, para así entender las posibles implicaciones para su trabajo y para su comunidad y asociados.

  1. ¿El beneficiario ha dado su consentimiento informado? ¿Cómo logró comprobar su comprensión? ¿El consentimiento fue de algún modo coercionado, tal vez debido a una dinámica de poder o falta de opciones alternativas?
  2. ¿Cómo se siente la comunidad con respecto a la tecnología? ¿Ésta encaja con las normas culturales y defiende la dignidad humana?
  3. ¿Qué tan asequible es la tecnología para todas las partes interesadas, incluyendo a los sujetos de datos?
  4. ¿Qué tan madura es la tecnología? ¿Cuánto tiempo ha estado en uso, dónde y con qué resultados? ¿Qué tan bien es entendida por todas las partes interesadas?
  5. ¿La tecnología está acreditada? ¿Cuándo y por quién? ¿La tecnología está basada en estándares ampliamente aceptados? ¿Son estándares abiertos?
  6. ¿Cuán interoperable es la tecnología con las otras del ecosistema de identidad?
  7. ¿Qué tan bien se desempeña la tecnología? ¿Cuánto tiempo toma recoger los datos, validar la identidad, etc.? ¿Cuál es la tasa de error?
  8. ¿Cuán resiliente es el sistema digital? ¿Puede operar sin acceso a internet o sin un acceso confiable?
  9. ¿Qué tan fácil es ampliar la tecnología de escala y usarla con poblaciones más grandes u otras?
  10. ¿Cuán segura y precisa es la tecnología? ¿Todos los riesgos de seguridad han sido abordados? ¿Qué métodos tiene en términos de copia de seguridad (por ejemplo, una huella de papel para la votación electrónica)?
  11. ¿La recolección de datos biométricos es proporcional a las tareas a mano? ¿Está recogiendo el monto mínimo de datos necesarios para alcanzar su meta?/div>
  12. ¿Dónde se guardan todos los datos? ¿Qué otras partes podrían tener acceso a esa información? ¿Cómo se protegen los datos?
  13. ¿Algunas de las personas que recibiría ID biométrico o digital forma parte de un grupo vulnerable? Si inscribir digitalmente su identidad podría ponerles en riesgo, ¿cómo podría mitigar esto? (Por ejemplo, evitando una base de datos centralizada, minimizando la cantidad de datos recogidos, tomando precauciones de ciberseguridad, etc.).
  14. ¿Qué poder tiene el beneficiario sobre sus datos? ¿Puede transferirlos a otro lado? ¿Puede solicitar que sus datos sean borrados, y podrían en realidad serlo?
  15. Si está usando ID digital o biometría para automatizar el cumplimiento de los derechos fundamentales o el suministro de servicios públicos cruciales, ¿hay suficiente supervisión humana?
  16. ¿Cuál es el error tecnológico más probable que excluya o dañe? ¿Cómo enfrentará este posible daño o exclusión?

Inicio

Estudios de caso

Aadhaar, India, el sistema biométrico nacional más grande del mundo

Aadhaar es el programa de ID biométrico nacional de India y el más grande del mundo. Es un estudio de caso esencial para entender los posibles beneficios y riesgos de semejante sistema. Aadhaar es controversial. Muchos han atribuido muertes debidas al hambre a los fallos del sistema Aadhaar, que no tiene suficiente supervisión humana para intervenir cuando la tecnología funciona mal e impide que las personas accedan a sus beneficios. Sin embargo, en 2018, la Corte Suprema de India sostuvo la legalidad del sistema diciendo que no viola el derecho de los indios a la privacidad, y que por ende podía seguir operando. “Aadhaar da dignidad a los marginados”, afirmaron los jueces, y que “La dignidad de los marginados supera la privacidad”. Aunque hay riesgos sustanciales, hay también oportunidades significativas para los ID digitales en la India, lo que incluye una mayor inclusividad y accesibilidad para que personas por lo demás no registradas accedan a los servicios sociales y tomen parte en la sociedad.

La tecnología del escaneo de iris de WFP en el campamento de refugiados de Zaatari

En 2016, el Programa Mundial de Alimentos introdujo la tecnología biométrica en el campamento de refugiados de Zaatari en Jordania. “El sistema de WFP depende de los datos del registro biométrico de los refugiados del ACNUR. El sistema es propulsado por IrisGuard, la compañía que desarrolló la plataforma de escaneo del iris, el Jordan Ahli Bank y su contraparte Middle East Payment Services. Una vez que se le ha escaneado el iris a un comprador, el sistema automáticamente se comunica con la base de datos del registro del ACNUR para confirmar la identidad del refugiado, revisa el saldo de la cuenta con el Jordan Ahli Bank y Middle East Payment Services, y luego confirma la compra e imprime un recibo, todo ello en segundos”. Para 2019 el programa, que depende en parte de la tecnología de blockchain, estaba apoyando a más de 100,000 refugiados.

Huduma Namba de Kenia

En enero de 2022, el New York Times reportó que los ID digitales de Kenia podrían excluir a millones de minorías. En febrero, el programa Huduma Namba keniano de ID fue suspendido por un fallo de la corte suprema, el cual detuvo “al plan Huduma Namba de $60 millones hasta que se implementen políticas de protección de datos adecuadas. El panel de tres jueces falló en un informe de 500 páginas, que el National Integrated Identification Management System (NIIMS, Sistema Nacional Integrado de Administración de la Identificación) es constitucional, reporta The Standard, pero las actuales leyes no bastan para garantizar la protección de los datos. […] Meses después de iniciada la captura biométrica, el gobierno aprobó su primera ley de protección de datos a finales de noviembre de 2019, luego de que hubiese intentado rebajar la categoría del papel de comisionado de protección de datos a una agencia ‘semiindependiente’ de protección de datos, con un director nombrado por el presidente. Las medidas de protección de datos aún están por implementarse. El caso fue presentado por grupos de derechos civiles, entre ellos el Nubian Rights Forum y Kenya National Commission on Human Rights (KNCHR), que citando cuestiones de privacidad de los datos y de privacidad, sostuvieron que la forma en que las leyes de protección de datos estaban siendo manejadas en el parlamento impedían la participación pública, y que el plan NIIMS estaba resultando ser étnicamente divisivo en el país, en particular en las zonas de frontera”.

Biometría para la vacunación infantil

Como se explora en The New Humanitarian, 2019: “un proyecto de prueba está siendo lanzado con la apuesta subyacente de que la identificación biométrica es la mejor forma de impulsar las tasas de vacunación, vinculando a los niños con su expediente médico. A miles de niños entre uno y cinco años de edad se les van a tomar las huellas dactilares en Bangladesh y Tanzania, en el programa biométrico más grande de su tipo jamás intentado, anunció recientemente Gavi, la agencia de vacunación con sede en Ginebra. Aunque el plan incluye salvaguardas de protección de datos —y sus patrocinadores se cuidan de no prometer beneficios inmediatos—, está dándose en medio de un debate cada vez más amplio acerca de la protección de datos, la ética de la tecnología, y los riesgos y beneficios de la ID biométrica en la asistencia de desarrollo y humanitaria”.

Financial Action Task Force Case Studies

Véanse también los estudios de caso reunidos por el Grupo de Acción Financiera Internacional (FATF), la organización intergubernamental concentrada en combatir el financiamiento del terrorismo. En 2020 éste dio a luz un recurso exhaustivo acerca de la Identidad Digital, que incluye breves estudios de caso.

Identidad digital en el contexto de la migración y los refugiados

Identidad digital en el contexto de la migración y los refugiados

Para los migrantes y refugiados en Italia, los procesos de recolección de datos de identidad pueden “exacerbar los sesgos existentes, la discriminación o los desequilibrios de poder”. Un reto clave es obtener un consentimiento significativo. Los datos biométricos a menudo se recogen tan pronto los migrantes y refugiados llegan a un país nuevo, en un momento en el cual podrían ser vulnerables y hallarse abrumados. Las barreras del lenguaje exacerban el problema, haciendo que sea difícil dar un contexto adecuado en torno a los derechos a la privacidad. Los datos de identidad los recogen de modo inconsistente distintas organizaciones, cuyas prácticas de protección de datos y de la privacidad varían todas ampliamente.

Usando la ID digital en Ucrania

Usando la ID digital en Ucrania

En 2019 USAID, en asociación con el Ministerio de Transformación Digital de Ucrania, ayudó a lanzar la app Diia, que permite a los ciudadanos acceder a formularios de identificación digitales que, desde agosto de 2021 tienen el mismo valor legal que las formas físicas de identificación. Diia tiene un total de 18 millones de usuarios en Ucrania, y es la app más usada en el país. El apoyo a la app es crucial para el desarrollo digital de Ucrania, y se ha vuelto cada vez más importante a medida que la guerra obliga a muchos a huir, y daña los edificios del gobierno y la infraestructura existente. La app permite a los usuarios guardar pasaportes digitales junto con otros 14 documentos digitales y acceder a 25 servicios públicos, todo ello en línea.

Inicio

Referencias

A continuación encontrará las obras citadas en este recurso.

Este manual aprovecha el trabajo de The Engine Room y el recurso que prepararon en colaboración con Oxfam acerca de la Biometrics in the Humanitarian Sector, publicado en marzo de 2018.

Inicio

Categories

Realidad Extendida / Realidad Aumentada / Realidad Virtual (RE/AR/VR)

¿Qué es la realidad extendida (RE)?

La Realidad Extendida (RE) es un término colectivo que comprende la Realidad Aumentada (RA) y la Realidad Virtual (RV), tecnologías que transforman nuestra interacción con el mundo ya sea ampliándola, ya reimaginando por completo nuestra percepción de la realidad.

Usando avances en los gráficos de computadora, sensores, cámaras y pantallas, la RE crea experiencias inmersivas que van de la superposición de información digital a nuestro entorno físico en la RA, a hacer que los usuarios se sumerjan en entornos íntegramente digitales en la RV. La RE representa un cambio significativo en la forma en que interactuamos con y percibimos a los contenidos digitales, y ofrece interfaces intuitivas y naturales para una amplia gama de aplicaciones en diversos sectores, entre ellos la democracia, los derechos humanos y la gobernanza.

¿Qué es la realidad virtual (RV)?

La Realidad Virtual (RV) es una tecnología que sumerge a los usuarios en un entorno tridimensional (3D) simulado, lo que les permite interactuar con éste en un modo que simula las experiencias en el mundo real, involucrando a sentidos como la vista, el oído y el tacto. A diferencia de las interfaces tradicionales, la RV coloca al usuario dentro de una experiencia. En lugar de ver una pantalla delante de ellos, los usuarios se sumergen y pueden interactuar con mundos en 3D.

La RV usa un casco especializado al que se conoce como casco de realidad virtual (HMD), con el que se crea un mundo en 3D generado por computadora que abarca íntegramente la visión y el oído. Esta tecnología inmersiva no solo visualiza, sino que además permite la interacción mediante controladores manuales. Estos controladores brindan una retroalimentación háptica, un característica que simula el sentido del tacto, mejorando así el realismo de la experiencia virtual. La aplicación más notable de la RV son los juegos inmersivos, que permiten a los jugadores interactuar plenamente en unos complejos mundos de fantasía.

¿Qué es la Realidad Aumentada (RA)

La Realidad Aumentada (RA) es una tecnología que superpone información y objetos digitales al mundo real, mejorando así lo que vemos, oímos y sentimos. Se la puede usar, por ejemplo, como una aplicación turística para ayudar a un usuario a abrirse camino en una ciudad no conocida e identificar restaurantes, hoteles y atracciones. En lugar de sumergir al usuario en un mundo virtual imaginario o lejano, se mejora al mundo físico aumentándolo en tiempo real con información y entidades digitales.

La RA se hizo ampliamente popular en 2016 con el juego Pokémon Go, en donde los jugadores encontraban personajes virtuales en lugares reales, y Snapchat, en donde se agregan juguetones filtros al rostro de los usuarios, como anteojos chistosos. La RA se usa también en aplicaciones más prácticas como asistiendo en cirugías, mejorando las pantallas de los autos y visualizando muebles en casa. Su fluida integración con el mundo real y su enfoque en mejorar la realidad antes que en reemplazarla, posiciona a la RA como una potencial figura clave en las futuras tecnologías de la web y el metaverso, reemplazando a las tradicionales interfaces de computadoras como las de teléfonos y escritorios, fusionando con precisión elementos reales y virtuales en tiempo real.

¿Qué es la Realidad Mixta (RM)

La Realidad Mixta (RM) es una tecnología que fusiona elementos del mundo real y digital. Ella combina elementos de la Realidad Virtual (RV), que crea un entorno íntegramente generado por computadora, con la Realidad Aumentada (RA), que superpone información digital al mundo real. En la RM, los usuarios pueden interactuar fluidamente tanto con objetos reales como virtuales en tiempo real. Los objetos digitales de la RM están diseñados para que respondan a condiciones del mundo real como la luz y el sonido, lo que hace que se vean más realistas y que parezcan estar más integrados a su entorno físico. A diferencia de la RV, la RM no reemplaza por completo al mundo real con otro digital; más bien mejora su experiencia en el primero agregando elementos digitales, brindando así una experiencia más interactiva e inmersiva.

La RM tiene diversas aplicaciones, como guiar a los cirujanos en procedimientos mínimamente invasivos usando imágenes y modelos interactivos en 3D a través de cascos de RM. Los dispositivos de RM son concebidos como herramientas versátiles listas para dar valor en múltiples ámbitos.

¿Qué es el metaverso?

El metaverso, un término acuñado originalmente en la novela “Snow Crash”, de 1992, es un mundo virtual inmersivo e interconectado, en donde la gente usa avatares para interactuar entre ellas y con otros entornos digitales a través de la internet. En él se fusionan los ámbitos físico y digital usando tecnologías de Realidad Extendida (RE) como la RA y la RV, creando así un espacio para diversas interacciones y construcción de comunidades. El metaverso, que fue comenzando a ganar impulso gracias a los avances en la tecnología y a las inversiones realizadas por grandes compañías, ofrece una plataforma que refleja las experiencias en el mundo real en un entorno digitalmente remozado, y que permite la conexión simultánea de numerosos usuarios.

El metaverso y cómo aprovecha la RE. Se le puede construir usando tecnología de RV para crear un metaverso virtual, y usar tecnología de RA para crear un metaverso aumentado. (Figura adaptada de Ahmed et al., 2023)

Un metaverso puede cubrir el espectro de la virtualidad e incorporar un “metaverso virtual” o uno “aumentado”, tal como vemos arriba. Las características de esta tecnología varían desde el uso de avatares dentro de ámbitos virtuales, al empleo de teléfonos inteligentes para acceder a entornos del metaverso, o a usar gafas de RA que superponen visuales generados por computadora a la realidad, o bien a experimentar escenarios de RM que fusionan perfectamente elementos tanto del ámbito físico como del virtual.

El espectro que va de la realidad a la virtualidad [Milgram y Kishino (1994) continuo.]
Figura adaptada de “Reality Media” (Fuente: Bolter, Engberg, & MacIntyre, 2021)

La figura anterior ilustra un especto que va desde el entorno real (el mundo físico) a un extremo, a otro íntegramente virtual (RV). La realidad aumentada (RA) y la virtualidad aumentada (VA) caen en medio; la RM muestra mayormente el mundo físico remozado con elementos digitales, y la VA es generada mayormente por computadora pero incluye algunos elementos del mundo real. La realidad mixta (RM) es un término para cualquier combinación de los mundos físico y virtual a lo largo de este espectro.

Inicio

¿De qué modo son la RA/RV relevantes en el espacio cívico y para la democracia?

El potencial de la RA/RV sobresale en el paisaje rápidamente en evolución de la tecnología, en particular su relevancia para la democracia, los derechos humanos y la gobernanza (DRG). Estas tecnologías no son solo conceptos futuristas, son herramientas que pueden reconfigurar el cómo interactuamos con el mundo y entre nosotros, haciendo así que sean vitales para la comunidad DRG.

En la vanguardia está el poder de RA/RV para transformar la participación democrática. Estas tecnologías pueden crear plataformas inmersivas e interactivas que llevarán al proceso democrático a la era digital. Imagine tomar parte en un municipio virtual desde la sala de su casa, debatiendo políticas con avatares de todo el mundo. No se trata sólo de conveniencia sino de mejorar el compromiso, haciendo que la participación en la gobernanza sea accesible para todos independientemente de las limitaciones geográficas o físicas.

Es más, las tecnologías de RA/RV ofrecen una oportunidad única para dar voz a las comunidades marginadas. Gracias a estas experiencias inmersivas, la gente puede conseguir una comprensión visceral de los retos que otros enfrentan, fomentando así la empatía y quebrando las barreras. Por ejemplo, las experiencias de RV que simulan la vida de alguien que vive en una zona de conflicto o que lucha con la pobreza, podrían ser herramientas poderosas en la defensa de los derechos humanos al hacer que los conceptos abstractos resulten algo concreto y urgente.

Otro aspecto significativo es la colaboración global facilitada por la RA/RV. Estas tecnologías permiten que los profesionales de DRG se conecten, compartan experiencias y aprendan mutuamente a través de las fronteras. Semejante colaboración es esencial en un mundo en donde los derechos humanos y los valores democráticos son cada vez más interdependientes entre sí. El intercambio global de ideas y de las mejores prácticas podría generar estrategias más robustas y resilientes en la promoción de la democracia y la gobernanza.

El potencial que la RA/RV tienen en la promoción y la conciencia es significativo. Los métodos tradicionales de generar conciencia en torno a las cuestiones de derechos humanos pueden ser complementados y mejorados con la naturaleza inmersiva de estas tecnologías. Ellas traen una nueva dimensión a la narración de historias, permitiendo a la gente experimentar en lugar de sólo observar. Esto podría cambiar las reglas del juego de la forma en que movilizamos el apoyo para las causas y educamos al público sobre las cuestiones cruciales.

Sin embargo, navegar por la frontera digital de la tecnología RA/RV requiere que tengamos un enfoque vigilante en lo que respecta a la privacidad de los datos, la seguridad y el acceso equitativo, reconociéndolos no sólo como retos técnicos sino también como problemas de los derechos humanos y la gobernanza ética.

La complejidad de controlar estas tecnologías requiere de la participación de los gobiernos y representantes electos para que aborden los riesgos sistémicos, fomenten la responsabilidad compartida y protejan a las poblaciones vulnerables. Esta gobernanza se extiende más allá de la supervisión gubernamental y necesita del compromiso de una amplia gama de partes interesadas, entre ellos expertos de la industria y la sociedad civil, para asegurar así un manejo justo e inclusivo. El debate en torno a los enfoques de gobernanza va desde promover la regulación gubernamental para proteger a la sociedad, hasta promover la autorregulación en pos de la innovación responsable. Un punto medio potencialmente efectivo es el de la corregulación, en donde los gobiernos, la industria y las partes interesadas relevantes colaboran para preparar normas e imponerlas. Esta estrategia equilibrada es crucial para asegurar el uso ético e impactante de la RA/RV en mejorar la participación democrática y defender los derechos humanos.

Inicio

Oportunidades

La RA/RV ofrecen una gama variada de aplicaciones en los ámbitos de la democracia, los derechos humanos y la gobernanza. La siguiente sección explora diversas oportunidades que la tecnología RA/RV trae al trabajo cívico y democrático.

Democracia aumentada

la democracia es bastante más que elecciones y gobernanza por parte de personas electas. Una democracia plenamente funcional está caracterizada por la participación ciudadana en el espacio público; una gobernanza participativa; libertad y oportunidades de expresión; acceso a la información; el proceso legal debido y la aplicación de la justicia; la protección de abusos de parte de los poderosos, etc. El físico chileno César Hidalgo, antes director del grupo de Collective Learning del MIT en el MIT Media Lab, ha trabajado en un ambicioso proyecto al que llama “Democracia aumentada.” Ésta confía en la idea de usar tecnologías como la RA/RV, junto con otras herramientas digitales, entre ellas la IA y los gemelos digitales, para expandir la capacidad de las personas de participar directamente en un gran volumen de decisiones democráticas. Los ciudadanos pueden ser representados en el mundo virtual por un gemelo digital, un avatar o un agente de software. Gracias a esta tecnología, los humanos pueden participar de modo más pleno en todas las cuestiones de políticas públicas, en una forma convenientemente ampliable de escala. Hidalgo sostiene que la democracia puede mejorarse y aumentarse usando la tecnología para automatizar varias de las tareas del gobierno, y que en el futuro los políticos y ciudadanos serán apoyados por algoritmos y equipos de especialistas, fomentando así una inteligencia colectiva que sirva al pueblo con mayor eficacia.

Gobernanza participativa

usando RA/RV se cuenta con mejores oportunidades para tomar parte en la gobernanza. Cuando se las usa conjuntamente con otras tecnologías como la IA, se hace factible una gobernanza participativa a escala en la cual la voz de los ciudadanos y sus representantes es incorporada a todas las decisiones referidas a las políticas y el bienestar públicos. Sin embargo, un “espacio público participativo” es apenas una posibilidad. Como veremos posteriormente en la sección Riesgos no podemos adscribir deterministamente resultados a la tecnología, puesto que la intención y el propósito de su empleo importa bastante. De no ejercerse el cuidado debido, el uso de la tecnología en los espacios públicos podría tener como resultado otros escenarios menos deseables, como la “realidad aumentada autocrática” o el “monopolio de las grandes tecnológicas” (Gudowsky et al.). Un metaverso bien estructurado podría posibilitar una mayor participación democrática y ofrecer a las ciudadanía nuevas formas de participar en los asuntos cívicos con la RA/VR, lo que llevaría a una gobernanza más inclusiva. Por ejemplo, las reuniones municipales virtuales, los debates y los foros comunales podrían reunir a gente de diverso origen, superando así las barreras geográficas y promoviendo las discusiones democráticas. La RA/RV podrían facilitar las protestas y demostraciones virtuales, brindando una plataforma segura para expresarse en regiones en donde las reuniones físicas podrían estar restringidas.

RA/RV en el cuidado de la salud

tal vez las aplicaciones más conocidas de la RA/RV en el espacio cívico se refieren a las industrias del cuidado de la salud y la educación. El beneficio que ambas tienen para el cuidado de la salud está bien establecido y ha sido replicado a través de múltiples estudios científicos. Hasta los escépticos, que usualmente dudan de los beneficios más amplios de la tecnología del metaverso/RA/RV, reconocen su probada efectividad en el cuidado de la salud, lo que ha sido señalado por expertos como Bolter et al. (2021) y Bailenson (2018). Estas tecnologías han mostrado su promesa en áreas tales como la terapéutica, la terapia mental, el apoyo emocional, y específicamente en la terapia de exposición para fobias y el manejo del estrés y la ansiedad. Ilustran esto García-Palacios et al. (2002), quienes demostraron el uso exitoso de la RV en el tratamiento de la fobia a las arañas mediante un estudio controlado, validando así aún más el potencial terapéutico de la tecnología.

RA/VR en la educación

además del cuidado de la salud, la educación y la capacitación brindan los casos de uso más convincentes de tecnologías inmersivas como la RA/VR. El valor primario de estas últimas es que proporcionan una experiencia inmersiva en primera persona única, que puede mejorar la percepción humana y educar o capacitar a los principiantes en el entorno relevante. De este modo con la RA/RV, la educación no es tanto leer sobre alguna situación o verla, sino más bien estar presente en ella. Semejante capacitación podría ser útil en una amplia variedad de campos. Por ejemplo, Boeing presentó los resultados de un estudio que sugiere que un entrenamiento efectuado a través de la RA permite a los trabajadores ser más productivos y ensamblar alas con mayor rapidez que cuando las instrucciones se dan usando métodos tradicionales. Esto también ha mostrado ser efectivo en la capacitación en diversidad, cuando la empatía puede ser generada mediante experiencias inmersivas.

Accesibilidad mejorada e inclusividad

la tecnología RA/RV permite crear entornos interactivos a los que se puede personalizar para satisfacer las necesidades de personas con diversas habilidades y discapacidades. Por ejemplo, los espacios públicos virtuales pueden ser adaptados para quienes tienen discapacidad visual concentrándose en otros sentidos, usando interfaces hápticas (basadas en el tacto) o audio para una participación aumentada. Las personas daltónicas pueden beneficiarse con un ‘modo daltónico’, que es una característica que ya está presente en muchas aplicaciones y juegos de RA/RV que adaptan los colores para hacerlos indistinguibles. Además, quienes necesitan métodos de comunicación alternativos pueden utilizar características de texto a voz, incluso eligiendo una voz única para su avatar digital. Yendo más allá de estas adaptaciones, las tecnologías de RA/RV pueden ayudar a promover la equidad en el centro de trabajo, al ofrecer a las personas con discapacidad física igual acceso a experiencias y oportunidades que podrían de otro modo serles inaccesibles, nivelando así el campo de juego en marcos tanto sociales como profesionales.

Generando empatía y conciencia

la RA/RV presenta una herramienta con una característica de usabilidad poderosa a través de la cual los usuarios pueden experimentar cómo es estar en los zapatos de otra persona. Semejante uso de mejoramiento de la perspectiva de la RA/RV podría usarse para incrementar la empatía y promover la conciencia de las circunstancias en que otros se encuentran. El experto en RV Jeremy Bailenson y su equipo en el Virtual Human Interaction Lab de Stanford, vienen trabajando en la RV para el cambio social, y han creado numerosas experiencias de RV en primera persona para resaltar problemas sociales como el racismo, el sexismo y otras formas de discriminación (véanse algunos ejemplos entre los Estudios de caso). En el futuro, uno podrá caminar la proverbial milla en los zapatos de otro usando tecnología en tiempo real, empleando comunicación inalámbrica vestible y de banda ancha usando RA/RV, generando así una mayor conciencia de las dificultades que otras personas enfrentan. Este uso de la RV puede ayudar a remover sesgos y a avanzar en cuestiones tales como la pobreza y la discriminación.

Comunidades virtuales inmersivas y sistemas de apoyo

las tecnologías de RA/RV ofrecen una forma única de empoderamiento para las comunidades marginadas, proporcionando un espacio virtual para la autoexpresión y la interacción autentica. Estas plataformas permiten a los usuarios crear avatares y entornos que realmente reflejan su identidad, libre de los constreñimientos sociales. Este equipo digital fomenta el desarrollo social y ofrece un espacio seguro a comunidades que a menudo están aisladas en el mundo físico. Al conectar a estas personas con redes más amplias, la RA/RV facilitan el acceso a recursos educativos y de apoyo que promueven el crecimiento individual y comunal. Además, la RA/RV sirven como un archivo digital de diversas culturas y tradiciones, lo que ayuda a la preservación y celebración de la diversidad cultural. Tal como se resalta en “Experience on Demand”, de Jeremy Bailenson, estas tecnologías también proporcionan beneficios terapéuticos y ofrecen apoyo emocional a quienes están afectados por traumas. A través de experiencias virtuales, las personas pueden volver a experimentar recuerdos queridos o visualizar futuros esperanzadores, subrayando así el papel de la tecnología en la curación emocional y el bienestar psicológico.

Activismo virtual

a diferencia de los medios tradicionales, la realidad virtual no brinda una simple experiencia mediada. Cuando está bien hecha, nos explica Jeremy Bailenson, es una experiencia real. La RV puede, por ende, ser un agente de un cambio conductual duradero, y puede involucrar y ser más persuasiva que otros tipos de medios tradicionales. Esto hace que la RA/RV sean idóneas para el activismo virtual, que busca producir cambios reales en la vida de comunidades marginadas. Por ejemplo, la RV ha sido usada por la UN Virtual Reality para dar un nuevo lente a la crisis de los migrantes ya existente, crear conciencia del create awareness around cambio climático y generar empatía humanitaria. Desarrollamos algunos ejemplos en los Estudio de caso.

Economía sostenible virtual

la RA/RV y el metaverso podrían hacer posible modelos económicos nuevos y más sostenibles. Los sistemas descentralizados como la tecnología de blockchain, pueden usarse para apoyar la propiedad digital de activos virtuales y empoderar a los desposeídos económicamente, y cuestionar las estructuras de poder centralizado tradicionales. Es más, dado que la RA/RV y el metaverso prometen ser la siguiente evolución de la Internet, que será más multi-sensorialmente inmersiva y estará equipada con presencias mutuas, las personas podrían entonces participar en diversas actividades y experiencias virtualmente, reduciendo la necesidad de los viajes e infraestructura físicos, lo que tendría como resultado una vida más económica y sostenible, reduciría las huellas de carbono y mitigaría el cambio climático.

Inicio

Riesgos

El uso de la RA/RV en el trabajo por la democracia, los derechos humanos y la gobernanza conlleva varios riesgos. Las siguientes secciones los explorarán con algo más de detenimiento. También presentarán estrategias con las cuales mitigarlos eficazmente.

Aplicaciones limitadas e inclusividad

Para que las tecnologías de RA/RV se empleen eficaz e inclusivamente en aplicaciones democráticas y de otro tipo, es esencial que superemos varios retos importantes. Estas tecnologías actualmente caen por debajo de lo deseado en áreas tales como la retroalimentación táctil avanzada, un apoyo amplio al lenguaje de señas, y una amplia accesibilidad para diversas discapacidades. Para que realmente tengan un impacto global, la RA/RV deben adaptarse a diversos métodos de comunicación, entre ellos los enfoques visual, verbal y táctil, y servir a una gama de lenguajes, desde los hablados a los de señas. Debieran también estar diseñadas para apoyar distintas habilidades cognitivas y la neurodiversidad, en consonancia con los principios establecidos por la IEEE Global Initiative on Ethics of Extended Reality. (Iniciativa global sobre ética en la realidad extendida de la IEEE). Hay una necesidad apremiante de que el contenido también esté localizado cultural y lingüísticamente, conjuntamente con el desarrollo de las habilidades relevantes, lo que hará que las aplicaciones de RA/RV sean más aplicables y beneficiosas en diversos contextos culturales y lingüísticos.

Es más, el acceso a las tecnologías de RA/RV y al más amplio ecosistema del metaverso y la RE depende crucialmente de una infraestructura digital avanzada, como una fuerte conectividad de internet, sistemas de computación de gran performance y equipos especializados. Como señalara Matthew Ball en su análisis de 2022, para que estas tecnologías sean ampliamente accesibles y capaces de proporcionar experiencias fluidas en tiempo real se necesitarán mejoras significativas en la eficiencia computacional, lo que es particularmente crucial en la RA para evitar demoras disruptivas. Si no se hace que estos avances sean asequibles, las aplicaciones de la RA/RV seguirán siendo limitadas.

La concentración de poder y los monopolios corporativos

El concepto del metaverso, tal como lo conciben los expertos de la industria, conlleva un enorme potencial para dar forma al futuro de la interacción y la experiencia humanas. Sin embargo, el control concentrado de este expansivo ámbito digital por parte de una sola corporación dominante genera una preocupación crítica con el equilibrio del poder y de la autoridad. En palabas de Matthew Ball (2022), la influencia del metaverso podría eclipsar la de los gobiernos, otorgando así una autoridad sin precedentes a la corporación que lo comande. Esta concentración de poder trae consigo temores sobre la responsabilidad, la supervisión y las posibles implicaciones para las libertades personales dentro de este ecosistema digital inmersivo.

Otro gran problema es la forma en que estas compañías reúnen y usan nuestros datos. Si bien pueden emplearlos para mejorar sus programas y hacer que las cosas sean mejores para nosotros, el World Bank (2021) advierte que la recolección de vastas cantidades de datos podría hacer que estas compañías consigan demasiado poder económico y político. Esto podría ser peligroso porque podrían utilizarlos de modos que hagan daño a los ciudadanos. Cuantos más se usen los datos una y otra vez, tantas más posibilidades hay de que sean mal utilizados. Los riesgos de violaciones a la privacidad, la vigilancia y la manipulación se incrementan sobre todo en situaciones caracterizadas por la concentración de poder, como en los regímenes autoritarios o los monopolios corporativos.

Violación de la privacidad con la vigilancia digital ampliada e intrusiva

El surgimiento de las tecnologías de RA/RV ha revolucionado las experiencias inmersivas, pero también plantea significativas preocupaciones con respecto a la privacidad debido a la extensa recolección de datos involucrada. Estos dispositivos recogen una amplia gama de datos personales, entre ellos información biométrica como la presión sanguínea, oximetría de pulso, huellas de voz, rasgos faciales e incluso detallados movimientos corporales. Este tipo de recolección de datos plantea riesgos específicos, en particular para los grupos vulnerables y marginados, puesto que va mucho más allá de una simple identificación. Los actuales marcos reguladores no están adecuadamente equipados para abordar estos problemas de privacidad en el medio en rápida evolución de la RE. Dicha situación subraya la apremiante necesidad de actualizar las regulaciones que pueden proteger la privacidad individual ante el avance de semejantes capacidades tecnológicas avanzadas.

Es más, las tecnologías de RA/RV traen consigo desafíos singulares bajo la forma de publicidad manipuladora y de una posible modificación conductual. Estos dispositivos pueden inferir los deseos más profundos de los usuarios empleando datos biométricos, lo que lleva a una publicidad sumamente focalizada y potencialmente invasiva que aprovecha las motivaciones subconscientes. Estas técnicas borran la frontera entre la privacidad personal y los intereses corporativos, lo que hace que sean necesarios unos robustos marcos de privacidad. Además el potencial de la RA/RV para influir en el comportamiento humano o manipularlo es una preocupación crucial. Como estas tecnologías pueden moldear nuestras percepciones y elecciones, es esencial involucrar diversas perspectivas en su diseño e imponer regulaciones proactivas para así prevenir impactos irreversibles en su infraestructura y modelos empresariales. Aún más, el impacto de la tecnología de RE se extiende a los transeúntes, quienes podrían ser grabados u observados, inconscientemente, en especial con la integración de tecnologías como el reconocimiento facial, planteando así más riesgos a la privacidad y la seguridad.

Consecuencias nocivas involuntarias de la RA/RV

Cuando se introduce la tecnología RA/RV a los programas relacionados con la democracia u otras iniciativas sociales, es de crucial importancia considerar las consecuencias más amplias, y a menudo involuntarias, que ellas podrían tener. La RA/RV ofrece experiencias inmersivas que pueden mejorar el aprendizaje y la participación, pero esta mismas cualidades también conllevan riesgos. Por ejemplo, mientras que la RV puede crear situaciones convincentes de escenarios en el mundo real, promoviendo así la empatía y la comprensión, también puede conducir a fenómenos como la “fatiga” o “resaca” de la RV. Los usuarios podrían experimentar una desconexión de la realidad y sentirse alienados de su entorno físico o de su propio cuerpo. Es más, la prevalencia de la “enfermedad de RV” semejante al mareo del viajero, provocada por discrepancias en los inputs sensoriales, podría tener como resultado malestar, náuseas o mareos, lo que le resta valor al impacto positivo deseado de estas tecnologías.

Otra preocupación significativa es el potencial para que la RA/RV moldee las percepciones y comportamientos de los usuarios en modos indeseables. La naturaleza inmersiva de dichas tecnologías podría intensificar los efectos de las burbujas de filtros y cámaras de eco, aislando a los usuarios dentro de esferas de información altamente personalizadas pero potencialmente distorsionadas. Este efecto podría exacerbar la fragmentación de la realidad compartida, impidiendo que se dé un discurso constructivo en contextos democráticos. Además, la fusión de las experiencias virtual y real podría borrar las líneas entre la información factual y las invenciones, haciendo que los usuarios sean así más susceptibles a la desinformación. Es más, el anonimato y el desapego percibidos en los entornos de RV podrían alentar un comportamiento antisocial, pues la gente podría participar en actos que evitaría en la vida real. También se corre el riesgo de que la empatía, que generalmente es una fuerza para bien, sea manipulada con fines divisivos o de explotación. De este modo, si bien la RA/RV tienen la gran promesa de mejorar los programas democráticos y sociales, estos posibles impactos negativos requieren una implementación cuidadosa guiada por la ética.

“Demasiado real para ser verdad”: el desencanto con la realidad y el efecto Pigmalión

En nuestra era de realidades aumentadas y virtuales, en que el escapismo digital a menudo parecería ser más atractivo que el mundo físico, nuestra comprensión compartida y la democracia corren el riesgo cada vez más grande de que la gente se retire a ámbitos virtuales (Turkle, 1996) (Bailenson, 2018). La naturaleza transformadora de la RA/RV introduce un concepto novedoso en el cual las personas podrían verse atraídos a mundos virtuales a costa de interactuar con su entorno físico (el cual ahora es considerado “demasiado real para ser bueno”). El uso de la RV por parte de poblaciones necesitadas y explotadas podría darles un alivio de la miseria de su experiencia vivida, pero al mismo tiempo disminuye también la probabilidad de que se resistan a dichas condiciones. Es más, a medida que la RA/RV avanzan y van quedando integradas con la IA avanzada en el metaverso, se da también el riesgo de que las fronteras entre los mundos virtual y real se borren. Los seres humanos tienden a antropomorfizar a las máquinas y bots que tienen algunas características humanísticas (v.g., los ojos o el lenguaje) y a tratarlos como humanos (Reeve & Nass, 1996). Podríamos tratar a la IA y a las entidades virtuales como si fueran humanas, lo que potencialmente generaría confusiones y retos en nuestras interacciones. Hay también severos riesgos asociados con el uso excesivo de experiencias inmersivas que tienen un alto grado de realismo de RV (Greengard, 2019). El experto en RV Denny Unger, CEO de Cloudhead Games, advierte que la inmersión extrema podría extenderse más allá del malestar y tener resultados aún más severos, entre ellos posibles ataques al corazón e incidentes fatales.

Descuido del yo y el entorno físicos

La observación que Jeremy Bailenson (2018) hiciera de que estar presente en la realidad virtual (RV) a menudo significa estar ausente en el mundo real, es un punto crucial para quienes están considerando usarla en la democracia y en otras tareas importantes. Cuando la gente se lanza dentro de la RV, puede quedar tan concentrada en el mundo virtual que pierde contacto con lo que está sucediendo a su alrededor en la vida real. En su libro “Experience on Demand”, Bailenson explica cómo esta profunda interacción con la RV podría hacer que los usuarios descuiden sus propias necesidades y entorno físicos. Esto es parecido a cómo la gente podría sentirse desconectada de sí misma y de su entorno en ciertas condiciones psicológicas. También está la preocupación de que las compañías de RV diseñen sus productos para que sean adictivos, haciendo que a los usuarios les resulte difícil desconectarse. Esto planea importantes preguntas acerca de los efectos que usar bastante la RV tiene a largo plazo, y resalta la necesidad de que se cuente con estrategias para prevenir estos problemas.

Seguridad y protección

La seguridad es una preocupación primaria en el ámbito de las tecnologías inmersivas. Hay una notable falta de comprensión del impacto de la realidad virtual RV (RV), sobre todo en usuarios jóvenes. Asegurar la seguridad emocional y física de los niños en entornos de RV requiere de directrices y medidas de seguridad bien definidas. Para proteger a los jóvenes usuarios se deberá balancear su naturaleza seductora con la conciencia del mundo real. La discusión acerca de las restricciones de edad y el uso responsable de la RV son cruciales en este paisaje tecnológico en rápido avance. Spiegel (2018) subraya la importancia que las restricciones de edad tienen para proteger a los jóvenes usuarios de los efectos potencialmente negativos de la exposición prolongada a la RV, y argumenta a favor de los beneficios de dichas limitaciones.

En otro frente, la ausencia de una fuerte verificación de identidad en los espacios virtuales hace que surjan preocupaciones por la usurpación de identidad y el mal uso de los avatares, lo que afectaría en particular a niños, quienes podrían ser víctimas de fraude o ser acusados erróneamente de delitos. La ausencia de una protección efectiva de la identidad incrementa la vulnerabilidad de los usuarios, resaltando así la necesidad de contar con medidas de seguridad avanzadas. Además la violencia virtual, como los incidentes reportados de acoso en los juegos de RV, constituyen un riesgo significativo. Estos no son problemas nuevos; por ejemplo, el artículo “A Rape in Cyberspace” de Julian Dibbell (1994), llamó la atención sobre la necesidad de prevenir los asaltos sexuales virtuales. Esto subraya la urgente necesidad de contar con políticas para enfrentar y prevenir el acoso y la violencia en la RV, asegurando así que estos espacios sean seguros e inclusivos para todos los usuarios.

Alineamiento con los valores y la búsqueda de significados

Al incorporar tecnologías de RA/RV a los programas, es de crucial importancia ser conscientes de su impacto significativo sobre la cultura y los valores. Tal como Neil Postman señaló, la tecnología invariablemente da forma a la cultura, creando a menudo una mezcla de ganadores y perdedores. Cada herramienta tecnológica porta sesgos inherentes, ya sean políticos, sociales o epistemológicos. Estos sesgos influyen sutilmente en nuestra vida diaria, a veces sin que estemos conscientemente alertas de ellos. De ahí que cuando se introduce la RA/RV a nuevos entornos, se debe considerar cómo es que estas tecnologías se alinean o entran en conflicto con los valores culturales locales. Tal como Nelson y Stolterman (2014) observan, la cultura es dinámica y está cogida entre la tradición y la innovación. Involucrar a la comunidad en el proceso de diseño podría mejorar la aceptación y efectividad de su proyecto.

En el contexto de la democracia, los derechos humanos y la gobernanza es esencial equilibrar los deseos individuales con el bien colectivo. La RA/RV pueden ofrecer cautivantes experiencias artificiales, pero tal como lo ilustra el experimento mental del filósofo Robert Nozick en su “Experience Machine” (2018), ellas no pueden reemplazar las complejidades y la autenticidad de las experiencias de la vida real La gente a menudo valora la realidad, la autenticidad y la libertad para hacer elecciones de vida por encima del placer artificial. Al aplicar la RA/RV, la meta debiera ser empoderar a las personas mejorando su participación en los procesos democráticos y enriqueciendo su vida, y no ofrecerles un mero escapismo. Las directrices éticas y unas prácticas responsables de diseño son claves para asegurar el uso escrupuloso de los entornos virtuales. Al conducir a los usuarios hacia experiencias más significativas y gratificantes, la RA/RV puede usarse para impactar en la sociedad de modo positivo, al mismo tiempo que se respeta y enriquece su tejido cultural.

Inicio

Preguntas

Si usted está intentando entender las implicaciones que la RA/RV tienen en su trabajo de DRG, debiera tener en cuenta las siguientes preguntas:

  1. ¿El uso de RA/RV mejora la participación humana en el mundo físico y en los problemas del mundo real, o acaso desconecta a la gente de este último? ¿La herramienta de RA/RV que está siendo diseñada creará espacios desfasados que alienarán a la gente de los demás y del mundo real? ¿Qué pasos se han tomado para evitar semejante aislamiento?
  2. ¿Puede este proyecto efectuarse en el mundo real y es realmente necesario en realidad virtual? ¿Ofrece algún beneficio por encima de hacer lo mismo en el mundo real? ¿Provoca algún daño en comparación con hacerlo en el mundo real?
  3. Al aplicar la tecnología de RA/RV, considere si ella no podría reforzar involuntariamente las desigualdades del mundo real. Reflexione acerca de las barreras digitales y económicas al acceso: ¿su aplicación es compatible con diversos dispositivos y redes, asegurando así una amplia accesibilidad? Cuídese de crear una “división en la realidad” en la cual los grupos marginados sean empujados hacia las alternativas virtuales, en tanto que otros gozan de las experiencias físicas. Siempre tenga en cuenta ofrecer opciones en el mundo real para los menos comprometidos con la RA/RV, promoviendo la inclusividad y una participación amplia.
  4. ¿Se han considerado las repercusiones que el uso de la tecnología de RA/RV tiene a nivel del sistema? Cuál será el efecto de la intervención en la comunidad y la sociedad en general? ¿Hay alguna posibilidad de que la tecnología propuesta tenga como resultado el problema de la adicción a ella? ¿Puede anticiparse alguna consecuencia involuntaria y mitigarse los riesgos negativos (como la adicción a la tecnología)?
  5. ¿Qué políticas y marcos reguladores se están siguiendo para asegurarse de que las tecnologías relacionadas con la RA/RV, o más en general con la RE y el metaverso, no violan los derechos humanos y contribuyen de modo positivo al desarrollo humano y a la democracia?
  6. ¿Se han tomado los pasos necesarios para incluir y promover la diversidad, la equidad y la inclusión, de modo tal que la tecnología sea apropiada para las necesidades y sensibilidades de distintos grupos? ¿Los diseñadores y desarrolladores de la RA/RV han tomado el input de los grupos subrepresentados y marginados, para así asegurar un diseño participativo e inclusivo?
  7. ¿Hay transparencia en el sistema con respecto a qué datos se recogen, con quién se comparten y cómo se usan? ¿La política de datos cumple con las mejores prácticas internacionales acerca de la protección de los consumidores y de los derechos humanos?
  8. ¿A los usuarios se les está dando una decisión y un control de usuario significativos sobre su privacidad, autonomía y acceso a su información y sus avatares en línea? ¿Qué medidas hay para limitar el acceso no autorizado a los datos que contienen información privada y sensible?
  9. De estarse monitoreando señales biométricas, o si se está usando información sensible como el seguimiento ocular, ¿qué pasos y marcos se siguieron para asegurarse de que el marco se emplee para fines que sean éticos y prosociales?
  10. ¿Hay transparencia en el sistema con respecto al uso de entidades de IA en el Espacio Virtual, de modo tal que en la aplicación de RA/RV no hay ninguna decepción o ambigüedad para con el usuario?
  11. ¿Qué pasos y marcos se siguieron para asegurar que toda modificación conductual o nudging efectuado por la tecnología sea conducido por la ética y la ley, y sea culturalmente sensible y prosocial? ¿La tecnología de RA/RV cumple con los principios de derechos humanos de la ONU aplicados a vigilancia de las comunicaciones y los negocios?
  12. Si la aplicación está pensada para que la usen niños, ¿se ha prestado la debida consideración a la protección de sus derechos?
  13. ¿La tecnología es culturalmente apropiada? ¿Qué efectos culturales son probables cuando esta tecnología sea adoptada? ¿La población local le dará la bienvenida a estos efectos, o acaso habrán de enfrentar oposición?

Inicio

Estudios de caso

La RA/RV pueden tener impactos positivos cuando se las usa para promover cuestiones de DRG. Lea a continuación para aprender cómo reflexionar acerca de su uso de modo más eficaz y seguro en su trabajo.

Campaña de acción de los Objetivos de Desarrollo Sostenible (ODS) de la ONU

A partir de enero de 2015, la Campaña de Acción de ODS de la ONU ha supervisado la United Nations Virtual Reality Series (UN VR) con miras a hacer que las cuestiones más apremiantes del mundo tengan eco entre los decisores de políticas y la gente de todo el mundo. Al empujar los límites de la empatía, esta iniciativa profundiza en las narrativas humanas que subyacen a las luchas por el desarrollo. A través de la UN VR Series, las personas que se encuentran en posiciones de efectuar cambios obtienen una percepción más profunda de las experiencias cotidianas de quienes están en riesgo de ser marginados, fomentando así una comprensión más profunda de sus circunstancias.

Ban Ki-moon, secretario general de la ONU, y Margaret Chan, directora ejecutiva de la OMS (c) David Gough. Crédito. UN VR: https://unvr.sdgactioncampaign.org/

Un reciente ejemplo de promoción y activismo en el uso de una narración inmersiva para informar a quienes toman las decisiones, tuvo lugar en abril de 2022, cuando el Departamento de Asuntos Políticos de las Naciones Unidas (DAP-NU), conjuntamente con el gobierno del Japón, lanzó la experiencia de VR “Sea of Islands” que lleva a los espectadores a las islas del Pacífico y les permite así ver las profundas ramificaciones que la crisis climática tiene en el área del Asia-Pacífico. A través de este medio la urgencia, magnitud y naturaleza crítica del cambio climático se hacen tangibles y accesibles.

Afiche de la película de RV Sea of Islands.
Fuente: https://media.un.org/en/asset/k1s/k1sbvxqll2

RV para democratizar el acceso a la educación

Las tecnologías de RA/RV guardan una gran promesa en el campo de la tecnología educativa (“edutec”) debido a sus inmensas capacidades, su aspecto atractivo y su potencial para democratizar el acceso y abordar cuestiones tales como el costo y la distancia (Dick, 2021a). La RA/RV pueden tener un papel crucial en facilitar la comprensión de conceptos abstractos y posibilitar una práctica directa dentro de entornos virtuales seguros, lo que beneficia en particular a los cursos de STEM, simulaciones médicas, artes y estudios de humanidades. Además, al incorporar enfoques de aprendizaje práctico y ludificado en diversas materias, estas tecnologías mejoran el desarrollo cognitivo y la participación en el salón. Otra ventaja es su capacidad para ofrecer experiencias de aprendizaje personalizadas que benefician a todos los alumnos, incluso a aquellos que tienen discapacidades cognitivas y de aprendizaje. Un caso ilustrativo es Floreo, que utiliza lecciones basadas en la RV para impartir habilidades sociales y básicas a jóvenes con un desorden en el espectro autista (TEA). El Fondo de las Naciones Unidas para la Infancia (UNICEF) cuenta con una serie de iniciativas dentro de su AR/VR for Good Initiative. (Iniciativa de RA/RV para el Bien). Un ejemplo de proyecto que busca usar la RV en el aula es Imisi 3D, una startup nigeriana fundada por Judith Okonkwo. La solución de Imisi 3D promete ofrecer herramientas para una educación de calidad a través de la RV, enriquecer la experiencia de aprendizaje de los niños, y hacer que la educación sea más accesible a más personas.

Fuente: UNICEF Nigeria/2019/Achirga

Enfocando a los refugiados y las víctimas de las guerras

Una serie de proyectos han recurrido a la RV para resaltar los problemas y la miseria de los refugiados y de quienes se ven afectados por la guerra. Clouds Over Sidra es uno de los primeros documentales de RV de la ONU, que fuera filmado en 2014 (y presentado en 2015). Se trata de la historia de Sidra, una muchacha de 12 años que vive en el campamento de refugiados de Zaʿatari desde el verano de 2013. La historia sigue a Sidra por el campamento de Zaʿatari, en donde unos 80,000 sirios, de los cuales aproximadamente la mitad son niños, se han refugiado de los conflictos y tumultos. A lo largo de la película de RV, Sidra conduce al público a un viaje a través de su existencia cotidiana, dando así una percepción de actividades tales como el comer, dormir, el aprendizaje y el juego dentro de este extenso paisaje desértico de carpas. Al lanzar a los espectadores a este mundo que de otro modo quedaría como algo lejano, la ONU se esfuerza por ofrecer a los donantes una mirada tangible del impacto que sus contribuciones tienen, y,¿ a los posibles donantes les permite comprender las zonas que aún necesitan contar con un respaldo sustancial.

La vida de los migrantes en un campamento de refugiados en RV (proyecto Clouds over Sidra, de ONU RV)
Fuente: http://unvr.sdgactioncampaign.org/cloudsoversidra/

My Mother’s Wing, otro proyecto de ONU RV, brinda una perspectiva sin paralelo de la Franja de Gaza asolada por la guerra, presentando un relato en primera persona del viaje de una joven madre mientras lidia con la pérdida desgarradora de dos de sus hijos durante el bombardeo del colegio de la UNRWA en julio de 2014. Esta conmovedora película echa luz sobre la combinación de tristeza y esperanza que tiñe su existencia diaria, resaltando su papel crucial como ejemplo de fortaleza dentro su familia. En medio del proceso de curación ella emerge como un pilar de apoyo, cultivando así un optimismo que empodera a su familia para persistir con renovada esperanza.

La experiencia de una zona asolada por la guerra (proyecto My Mother’s Wing, de ONU RV)
Fuente: https://unvr.sdgactioncampaign.org/a-mother-in-gaza/

Mejorando la accesibilidad en el Sur Global con RA

En diversas partes del mundo, millones de adultos luchan para leer cosas elementales como programaciones de ómnibus o formularios bancarios. Para rectificar esta situación, la tecnología de RA puede usarse con las cámaras de los teléfonos para ayudar a la gente que lucha con la lectura. Como ejemplo, Google Lens apoya la traducción y puede leer el texto en voz alta cuando se le señala. Va resaltando las palabras a medida que habla, de modo que resulta posible seguirle y entender todo el contexto. También se puede pulsar una palabra específica y aprender su definición. Google Lens está diseñado para que funcione no sólo con los costosos teléfonos inteligentes, sino también con aparatos más baratos equipados con cámaras.

Google Translate con Google Lens, en una traducción en vivo y en tiempo real de boletos de tren
Fuente: https://storage.googleapis.com/gweb-uniblog-publish-prod/original_images/Consumer_TrainTicket.gif

“IKEA Place” es otro ejemplo de una app de RA que muestra el poder del diseño espacial y la interacción con el consumidor impulsado por la RA. La app emplea la tecnología de RA para permitir a los usuarios integrar los productos (muebles) a sus habitaciones, mejorando así los procesos de toma de decisión e incrementando la satisfacción de los consumidores. Esta misma tecnología podría también aplicarse en el ámbito de la planificación cívica. Al proporcionar una representación auténtica de productos en entornos del mundo real, la app puede ayudar a los planificadores urbanos y arquitectos a simular diversos elementos de diseño dentro de espacios públicos, contribuyendo así a una toma de decisiones informada para los paisajes urbanos y las áreas comunales.

IKEA Place: usando la RA para visualizar los muebles dentro de una habitación. Fuente: Ikea.com

En Dick (2021b) se señalan más ejemplos de cómo es que la tecnología de RA/RV puede usarse para mejorar la accesibilidad.

Enfocando la discriminación de género y de casta

La presencia de las mujeres al centro de nuestro sistema democrático marca un significativo paso hacia la realización de la igualdad de género (ODS 5) y de instituciones robustas (ODS 16). La película de RV “Compliment”, creada por Lucy Bonner, una estudiante de postgrado en el Parsons School of Design, busca llamar la atención sobre el acoso y la discriminación que las mujeres soportan en entornos inseguros, lo que lamentablemente sigue siendo un problema global. A través de esta película de RV, los espectadores pueden ponerse en los zapatos de una mujer que recorre las calles, consiguiendo así una perspectiva de primera mano de la inquietante gama de acosos que muchas de ellas experimentan, a menudo a diario.

Vista de una escena de la película de RV “Compliment”.
Fuente: http://lucymbonner.com/compliment.html

Hay otras formas de discriminación sistemática, entre ellas la que tiene como base a las castas. “Course to Question”, una película de RV producida por Novus Select en colaboración con ONU Mujeres y Vital Voices, y que cuenta además con el apoyo de Google, ofrece un vistazo de las luchas de las activistas que combaten la discriminación basada en castas. Esta película resalta los apuros de las mujeres dalit, que siguen ocupando los peldaños más bajos de las jerarquías de castas, color y género. Antes llamadas “intocables”, las dalits son miembros de la casta más baja de la India y están luchando contra los sistemas de opresión. Ellas son privadas sistemáticamente de los derechos fundamentales, entre ellos el acceso a necesidades básicas como la comida, la educación y un trabajo justo.

Escena de la película en RV “Courage to Question” de ONU Mujeres, que resalta la discriminación que enfrentan las mujeres dalit o parias. Foto tomada de https://www.youtube.com/watch?v=pJCl8FNv22M

Capacitación en salud materna

En 2022 el Fondo de Población de la ONU, antes el UN Fund for Population Activities (UNFPA), lanzó una innovación pionera en RV que buscaba mejorar la capacitación en salud materna, en lo que fue el primer proyecto en implementar la RV en Timor Oriental y posiblemente en la región Asia-Pacífico. El programa de RV incluía el diseño de módulos de RV que contenían habilidades y procedimientos de Cuidado obstétrico y de recién nacidos de emergencia (EmONC) para salvar la vida de madres y bebés usando gafas de RV. La meta de este proyecto es crear entornos de aprendizaje mediados digitalmente en donde se visualicen situaciones médicas reales, para que los capacitados mejoren sus experiencias y resultados de aprendizaje y “refresquen las habilidades de cientos de profesores y parteras capacitados, para ayudarles a salvar vidas y evitar muertes maternas”.

Fuente: https://timor-leste.unfpa.org/en/news/unfpa-develop-novel-innovation-help-reduce-maternal-deaths-timor-leste-using-virtual-reality © UNFPA Timor-Leste.

Resaltando el racismo y la pobreza extrema

La experiencia inmersiva en RV de “1000 Cut Journey” lleva a los participantes a una profunda exploración. Ellos se ponen en los zapatos de Michael Sterling, un varón negro, y recorren momentos cruciales de su vida para así obtener de primera mano una percepción del impacto del racismo. Esta travesía guía a los participantes a través de sus experiencias como un niño que enfrenta medidas disciplinarias en el salón de clase, como un adolescente que tiene que vérselas con encuentros con la policía, y como un joven adulto que tiene que lidiar con la discriminación laboral (Cogburn et al., 2018).

Vista de 1000 Cut Journey, una película de RV sobre el racismo.
Fuente: https://www.virtualrealitymarketing.com/case-studies/1000-cut-journey/

1000 Cut Journey sirve como una poderosa herramienta con que fomentar un cambio significativo de perspectiva. Al sumergir a las personas en la narrativa de Michael Sterling, se facilita un compromiso más profundo y auténtico con las complejas cuestiones que rodean al racismo.

En otro proyecto del Virtual Human Interaction Lab de la Universidad de Stanford, se puede experimentar de primera mano la vida de personas indigentes sin hogar y caminar en los zapatos de quienes ya no pueden pagar una casa dentro de una experiencia de RV. De estas forma, los investigadores buscan generar conciencia y asimismo estudiar las experiencias en RV de la empatía. Los investigadores descubrieron a través de su estudio que en comparación con otros ejercicios de asumir perspectivas, una experiencia en RV genera un cambio más duradero en el comportamiento.

Vista de la película de RV Becoming Homeless — A Human Experience.
Fuente: https://xrgigs.com/offered/becoming-homeless-a-human-experience/

Gobernanza participativa usando RE

El MIT Media Lab y HafenCity University Hamburg se unieron para crear CityScope, una herramienta innovadora que fusiona IA, algoritmos y la percepción humana para una gobernanza participativa. Esta herramienta utiliza datos detallados que incluyen información demográfica y planificación urbana, para alentar la participación ciudadana en la resolución de problemas comunales y la toma de decisiones colectiva. Permite a los usuarios examinar diversos escenarios, fomentando un diálogo informado y soluciones colaborativas. Este proyecto resalta cómo es que el hecho de combinar la tecnología y la creatividad humana pueden mejorar la participación ciudadana en un entorno urbano.

Dirigentes vecinales y vecinos se reúnen para explorar posibles lugares para comunidades de refugiados. Crédito: Walter Schiesswohl. Fuente: https://medium.com/mit-media-lab/

Como otro ejemplo considérese vTaiwan, una innovadora aproximación a la gobernanza participativa que fusiona fluidamente ministerios de gobierno, académicos, ciudadanos y líderes empresariales para redefinir la democracia moderna. Este proceso transformador elimina la redundancia al hacer que las consultas en línea y offline converjan en plataformas como vtaiwan.tw y usarlas para (1) efectuar propuestas; (2) recoger opiniones; (3) reflexionar; y (4) dar leyes. Taiwán también ha usado la RV para resaltar su respuesta a la crisis de COVID-19 a través de la película de RV The Three Crucial Steps, en donde se muestra cómo los tres pasos —acciones prudentes, respuesta rápida y el despliegue temprano— tuvieron un papel crucial en su exitosa respuesta al COVID-19.

El viceministro taiwanés de asuntos exteriores ve Three Crucial Steps, la película en RV del ministerio, acerca de la respuesta de su país al COVID-19. Foto: Louise Watt.
Fuente: https://topics.amcham.com.tw/2020/12/taiwan-new-trails-with-extended-reality/

vTaiwan usa el poder de las herramientas de código abierto y sistemas avanzados de tiempo real como Pol.is, que emplea el análisis estadístico y el aprendizaje automático para decodificar el sentir de su extensa base de usuarios (más de 200,000 participantes), los cuales pueden participar con una RV inmersiva mediante la integración pionera de cámaras en 3D con diálogos transmitidos en vivo. Este movimiento evolutivo, nacido en 2014 y todavía en curso, sirve como un modelo de gobernanza democrática del siglo XXI mejorada por la tecnología.

RV clínica y terapia virtual

La RV guarda un potencial significativo para su aplicación en entornos clínicos, en particular para la terapia y la rehabilitación virtuales, tal como lo señalan Rizzo et al. (2023). Para ejemplificar la utilidad clínica de la RV, veamos su papel en el tratamiento del dolor por quemaduras. A este último los profesionales médicos a menudo lo describen como un calvario insoportable que a menudo hace que los pacientes lidien con el síndrome de estrés postraumático (PTSD). Durante más de dos décadas, la RV ha proporcionado cierto grado de consuelo a los pacientes quemados a través de soluciones innovadoras como el juego de RV SnowWorld, diseñado por investigadores de la Universidad de Washington.

Un paciente usa RV SnowWorld durante su tratamiento por quemaduras.
Fotografía y copyright: Hunter G. Hoffman. Crédito: Universidad de Washington.
Fuente: https://depts.washington.edu/hplab/research/virtual-reality/

A lo largo del proceso del cuidado operativo de heridas por quemaduras se hace que los pacientes se sumerjan en la experiencia de RV de SnowWorld. Es de resaltar que esta sumersión participativa ha tenido éxito ya sea en sofocar el dolor que aflige a los pacientes, ya en mitigar las señales de dolor que les afligen. El concepto que yace detrás del diseño de SnowWorld gira en torno a la idea de la nieve y aprovecha el marcado contraste entre el frío y el calor, para así contrarrestar las sensaciones de dolor de las quemaduras. El objetivo es desviar los pensamientos del paciente de su accidente o de sus heridas por quemaduras. La efectividad de la RV en el manejo del dolor recibido resalta el gran potencial que la tecnología de RA/RV tiene en la terapia clínica y el cuidado de la salud.

Inicio

Referencias

A continuación encontrará los trabajos citados en este recurso.

Recursos adicionales

Inicio

Categories

Digital Development in the time of COVID-19