Inteligencia artificial y aprendizaje automático

¿Qué son la IA y el AA?

La inteligencia artificial (IA) es un campo de las ciencias de la computación dedicado a resolver problemas cognitivos usualmente asociados con la inteligencia humana como el aprendizaje, la resolución de problemas y el reconocimiento de patrones. Dicho de otro modo, IA es un término de múltiple contenido al cual se usa para describir nuevos tipos de software que pueden acercarse a la inteligencia humana. No hay una única definición precisa y universal de IA.

El aprendizaje automático (AA) es un subconjunto de IA. Esencialmente es una de las formas en que las computadoras “aprenden”. El AA es un enfoque de IA basado en algoritmos entrenados para que desarrollen sus propias reglas. Esta es una alternativa a los programas tradicionales de computación, en los cuales las reglas deben ser programadas a mano. El aprendizaje automático extrae patrones de los datos y los coloca en distintos conjuntos. Se ha descrito al AA como “la ciencia de hacer que las computadoras actúen sin haber sido programadas explícitamente”. Dos breves videos nos dan explicaciones simples de IA y AA: ¿Qué es la inteligencia artificial? | Explicación de la IA y ¿Qué es el aprendizaje automático?

Otros subconjuntos de AI son el procesamiento de voz, procesamiento de lenguaje natural (PLN), robótica, cibernética, visión artificial, sistemas expertos, sistemas de planificación y computación evolutiva.

artificial intelligence, types

El diagrama anterior muestra los muchos tipos distintos de campos tecnológicos que la IA comprende. Esta última puede referirse a un amplio campo de tecnologías y aplicaciones. El aprendizaje automático es una herramienta empleada para crear sistemas de IA. Cuando nos referimos a esta podemos estar aludiendo a una o varias de estas tecnologías o campos. Las aplicaciones que utilizan IA, como Siri o Alexa, usan múltiples tecnologías. Si, por ejemplo, le decimos a Siri: “Siri, muéstrame la figura de una banana”, usará el procesamiento del lenguaje natural (búsqueda de respuestas) para entender qué se le está preguntado, y luego usará la visión digital (reconocimiento de imágenes) para hallar una banana y mostrársela.

Como ya se indicó, la IA no cuenta con una definición universal. Hay muchos mitos en torno a ella, desde el temor de que controle el mundo esclavizando a los humanos, hasta la esperanza de que algún día se la pueda usar para curar el cáncer. Esta introducción busca brindar una comprensión básica de la inteligencia artificial y el aprendizaje automático, así como esbozar algunos de los beneficios y riesgos que la IA presenta.

Definiciones

Algoritmo: se define a un algoritmo como “una serie finita de instrucciones bien definidas que una computadora puede implementar para resolver un conjunto específico de problemas computacionales”. Los algoritmos son procedimientos nada ambiguos y paso a paso. Un ejemplo simple de un algoritmo sería una receta; otro sería un procedimiento para encontrar al número más grande en un conjunto numérico ordenado aleatoriamente. Un algoritmo puede o bien ser creado por un programador, o sino ser generado automáticamente. En este último caso lo será utilizando datos mediante el AA.

Toma de decisiones algorítmica/Sistema de decisión algorítmica (SDA): los sistemas de decisión algorítmica emplean análisis de datos y estadísticos para tomar decisiones automatizadas, como por ejemplo establecer si una persona es elegible para un beneficio o una pena. Entre los ejemplos de sistemas de decisión algorítmica completamente automatizados tenemos al control electrónico de pasaportes en los aeropuertos, o una decisión automatizada tomada por un banco para otorgar a un cliente un préstamo sin garantía, sobre la base de su historial crediticio y su perfil de datos en el banco. Las herramientas de ayuda a los conductores que controlan el freno, acelerador, conducción, velocidad y dirección de un vehículo son ejemplos de SDA semiautomatizados.

Big Data (macrodatos): hay muchas definiciones del “big data”, pero podemos por lo general pensarlos como conjuntos de datos extremadamente grandes que al ser analizados pueden revelar patrones, tendencias y asociaciones, entre ellos los que se refieren al comportamiento humano. La Big Data se caracteriza por las cinco V: el volumen, velocidad, variedad, veracidad y valor de los datos en cuestión. Este video ofrece una breve introducción a los macrodatos y al concepto de las cinco V.

Class label (etiqueta de clase): una etiqueta de clase se aplica después de que un sistema de aprendizaje automático ha clasificado sus insumos; por ejemplo, establecer si un correo electrónico es spam.

Deep learning (aprendizaje profundo): el aprendizaje profundo es una red neural de tres o más capas que intenta simular el comportamiento del cerebro humano, lo que permite “aprender” de grandes cantidades de datos. Este tipo de aprendizaje impulsa muchas aplicaciones de IA que mejoran la automatización, como los asistentes digitales, los controles remotos de TV activados por la voz, y la detección de fraudes con tarjetas de crédito.

Data mining: (minería de datos) la minería de datos, también conocida como descubrimiento de conocimientos en los datos, es el “proceso de analizar densos volúmenes de datos para encontrar patrones, descubrir tendencias y obtener ideas acerca de cómo podemos emplear los datos”.

La IA generativa[1]: la IA generativa es un tipo de modelo de aprendizaje profundo que puede generar texto, imágenes y otros contenidos de gran cantidad a partir de los datos de entrenamiento. Para mayor información consúltese la sección sobre IA generativa.

Label (etiqueta): una etiqueta es lo que un modelo de aprendizaje automático predice, como el futuro precio del trigo, el tipo de animal mostrado en una imagen, o el significado de un clip de audio.

Large language model (modelo grande de lenguaje): una modelo grande de lenguaje (LLM) es “un tipo de inteligencia artificial que emplea técnicas de aprendizaje profundo y conjuntos de datos masivamente grandes para entender, resumir, generar y predecir contenidos nuevos”. Un LLM es un tipo de IA generativa que ha sido construida específicamente para ayudar a generar contenidos basados en textos.

Model0: un modelo es la representación de lo que un sistema de aprendizaje automático ha aprendido de los datos de entrenamiento.

Red neural: una red neural biológica (BNN) es un sistema en el cerebro que permite sentir estímulos y responder a ellos. Una red neuronal artificial (ANN) es un sistema de computación inspirado por su contraparte biológica en el cerebro humano. En otras palabras, una ANN es “un intento de simular la red de neuronas que conforman un cerebro humano, de modo tal que la computadora pueda aprender y tomar decisiones en forma humana”. Las ANN de gran escala conducen varias aplicaciones de IA.

Perfilamiento: el perfilamiento involucra el procesamiento automatizado de datos para desarrollar perfiles a los cuales se puede usar para tomar decisiones sobre las personas.

Robot: los robots son artefactos programables automatizados. Los que son plenamente autónomos (v.g., los vehículos autónomos) son capaces de operar y tomar decisiones sin el control humano. La IA permite a los robots sentir cambios en su entorno y adaptar sus respuestas y comportamientos en conformidad a ello, para así efectuar tareas complejas sin la intervención humana.

Scoring (puntuación): la puntuación, también llamada predicción, es el proceso mediante el cual un modelo de aprendizaje automático entrenado genera valores a partir de nuevos datos ingresados. Los valores o puntajes que son creados pueden representar predicciones de valores futuros, pero podrían asimismo representar una categoría o resultado probables. Cuando se la usa en relación con personas, la puntuación es una predicción estadística que establece si una persona encaja dentro de una categoría o resultado. Por ejemplo, un puntaje crediticio es un número extraído de un análisis estadístico que representa la solvencia crediticia de una persona.

Supervised learning: en el aprendizaje supervisado, los sistemas de AA son entrenados a partir de datos bien etiquetados. Usando inputs y outputs etiquetados, el modelo puede medir su precisión y aprender con el paso del tiempo.

Aprendizaje no supervisado: el aprendizaje no supervisado emplea algoritmos de aprendizaje automático para así encontrar patrones en conjuntos de datos no etiquetados, sin necesidad de la intervención humana.

Entrenamiento: en el aprendizaje automático, el, entrenamiento es el proceso de establecer los parámetros ideales que un modelo comprende.

 

¿Cómo operan la inteligencia artificial y el aprendizaje automático?

Inteligencia artificial

La inteligencia artificial es un enfoque transdisciplinario que combina ciencias de la computación, lingüística, psicología, filosofía, biología, neurociencias, estadística, matemática, lógica y economía para “entender, modelar y replicar los procesos de inteligencia y cognitivos”.

Las aplicaciones de IA existen en todo ámbito, industria y en distintos aspectos de la vida cotidiana. Dado que la IA es tan amplia, resulta útil pensarla como estando conformada por tres categorías:

  • La IA restringida o inteligencia artificial restringida (ANI) es un sistema experto en una tarea específica, como el reconocimiento de imágenes, jugar Go, o pedirle a Alexa o Siri que respondan una pregunta.
  • La IA fuerte o inteligencia artificial general (IAG) es una IA que iguala la inteligencia humana.
  • La superinteligencia artificial (ASI) es una IA que supera la capacidad humana.

Las técnicas modernas de IA vienen desarrollándose rápidamente, y sus aplicaciones ya están generalizadas. Sin embargo, estas aplicaciones actualmente solo existen en el campo de la “IA restringida”. La inteligencia artificial general y la superinteligencia artificial aún no han sido alcanzadas, y probablemente no lo serán en los próximos años o décadas.

Aprendizaje automático

El aprendizaje automático es una aplicación de la inteligencia artificial. Si bien a menudo encontramos ambos términos usados de modo intercambiable, el primero es un proceso mediante el cual se desarrolla una aplicación de IA. El proceso de aprendizaje automático involucra un algoritmo que efectúa observaciones basadas en los datos, identifica patrones y correlaciones en ellos, y utiliza el patrón o correlación para efectuar predicciones. La mayor parte de la IA actualmente en uso está conducida por el aprendizaje automático.

Así como resulta útil dividir la IA en tres categorías, así también podemos pensar al aprendizaje automático como tres técnicas diferentes: aprendizaje supervisado; aprendizaje no supervisado; y aprendizaje profundo.

Aprendizaje supervisado

El aprendizaje supervisado categoriza eficientemente a los datos según definiciones preexistentes encarnadas en un conjunto de datos que contiene ejemplos de entrenamiento con etiquetas asociadas. Tomemos el ejemplo de un sistema de filtrado de spam, al cual se está entrenando usando correos electrónicos de spam y que no son spam. El “input” en este caso son todos los mensajes que el sistema procesa. Luego de que los humanos han marcado a ciertos mensajes como spam, el sistema los clasifica en otra carpeta. El “output” es la categorización de los mensajes. El sistema encuentra una correlación entre la etiqueta “spam” y las características de los mensajes, como el texto en el “Asunto”, las frases en el cuerpo del mensaje o la dirección de correo o IP del remitente. Usando esta correlación, el sistema intenta predecir la etiqueta correcta (spam/no spam) que aplicar a todos los futuros mensajes que procese.

En este caso, “spam” y “no spam” son denominadas “etiquetas de clase”. La correlación que el sistema halló se llama un “modelo” o “modelo predictivo”. Podemos pensar al modelo como un algoritmo que el sistema de AA genera automáticamente empleando datos. Los mensajes etiquetados a partir de los cuales el sistema aprende son llamados “datos de entrenamiento”. La variable objetivo es la característica que el sistema está buscando o de la cual quiere saber más, en este caso es la condición de spam de un mensaje. A la “respuesta correcta”, por así decirlo, en la categorización del mensaje se la denomina el “resultado deseado” o el “resultado de interés”.

Aprendizaje no supervisado

El aprendizaje no supervisado involucra el que las redes neuronales encuentren una relación o patrón sin tener acceso a conjuntos de datos previamente etiquetados de parejas de input-output. Las redes neurales organizan y agrupan los datos por cuenta propia, encontrando patrones recurrentes y detectando desviaciones de dichos patrones. Estos sistemas tienden a ser menos predecibles que los que usan conjuntos de datos etiquetados, y se les aplica más a menudo en entornos que pueden cambiar con cierta frecuencia y no son estructurados o lo están en parte. Algunos ejemplos son:

  1. Un sistema de reconocimiento óptico de caracteres que puede “leer” textos escritos a mano, aun cuando nunca haya visto dicha escritura antes.
  2. Los productos recomendados que un usuario ve en las páginas web de ventas al por menor. Estas recomendaciones podrían establecerse asociando al usuario con un gran número de variables tales como su historial de búsqueda, los artículos que ya ha comprado, la calificación que les ha dado, los que guarda en una lista de deseos, la ubicación del usuario, los artefactos que usa, las marcas que prefiere y el precio de sus compras previas.
  3. La detección de transacciones monetarias fraudulentas sobre la base de la fecha y la ubicación. Por ejemplo, si dos transacciones consecutivas tienen lugar en una misma tarjeta de crédito dentro de un lapso corto y en dos ciudades distintas.

Se usa una combinación de aprendizaje supervisado y no supervisado (lo que se conoce como “aprendizaje semisupervisado”) cuando se cuenta con un conjunto de datos relativamente pequeño y con etiquetas, para entrenar a la red neuronal para que actúe sobre otro conjunto más grande y sin etiquetas. Un ejemplo de aprendizaje semisupervisado es el software que crea deepfakes, o audio, videos o imágenes alterados digitalmente.

Aprendizaje profundo

El aprendizaje profundo emplea redes neuronales artificiales (ANN) de gran escala llamadas redes neuronales profundas para crear IA que pueda detectar fraudes financieros, efectuar análisis de imágenes médicas, traducir gran cantidad de texto sin intervención humana, y automatizar la moderación de contenido en las páginas de medios sociales. Estas redes neuronales aprenden a efectuar tareas empleando numerosas capas de procesos matemáticos, para así encontrar patrones o relaciones entre distintos puntos de datos en los conjuntos de datos. Un atributo clave del aprendizaje profundo es que estas ANN pueden leer detenidamente, examinar y clasificar cantidades inmensas de datos, lo cual en teoría les permite identificar nuevas soluciones a problemas ya existentes.

La IA generativa

La IA generativa[3] es un tipo de modelo de aprendizaje profundo que puede generar textos, imágenes u otros contenidos de gran calidad a partir de los datos de entrenamiento. El lanzamiento de, ChatGPT, el chatbot de OpenAI, a finales de 2022 llamó la atención sobre la IA generativa y desató una carrera entre las compañías para producir versiones alternativas (e idealmente superiores) de esta tecnología. El entusiasmo por los modelos grandes de lenguaje y otras formas de IA generativa también estuvo acompañado por una preocupación por la precisión, el sesgo dentro de dichas herramientas, la privacidad de los datos y cómo se podría usar estas herramientas para propagar la desinformación con mayor eficiencia.

Aunque hay otros tipos de aprendizaje automático, estos tres —el aprendizaje supervisado, el no supervisado y el aprendizaje profundo— representan las técnicas básicas usadas para crear y entrenar sistemas de IA.

Sesgos en la IA y el AA

La inteligencia artificial es construida por humanos y se la entrena con datos que ellos generan. Inevitablemente hay un riesgo de que los sesgos humanos individuales y sociales sean heredados por los sistemas de IA.

Hay tres tipos de sesgo comunes en los sistemas de computación:

  • Los sesgos preexistentes tienen su origen en las instituciones, prácticas y actitudes sociales.
  • El sesgo técnico se debe a limitaciones o consideraciones técnicas.
  • El sesgo emergente aparece en un contexto de uso.

El sesgo en la inteligencia artificial podría por ejemplo afectar la publicidad política que uno ve en la internet, el contenido movido a la cima de las noticias en las redes sociales, el costo de una prima de seguro, los resultados de la revisión en un proceso de reclutamiento, o la capacidad de pasar a través de los controles de frontera en otro país.

El sesgo en un sistema de computación es un error sistemático y repetible. Dado que el AA lidia con grandes cantidades de datos, hasta una tasa de error pequeña puede agravarse o magnificar, y afectar enormemente a los resultados del sistema. Una decisión que un sistema de AA tome, en particular aquellos que procesan conjuntos de datos gigantescos, a menudo es una predicción estadística. De ahí que su precisión esté relacionada con el tamaño del conjunto de datos. Es probable que los conjuntos de datos de entrenamiento más grandes produzcan decisiones que sean más precisas y reduzcan la posibilidad de error.

El sesgo en los sistemas de IA/AA pueden tener como resultado prácticas discriminatorias, lo que en última instancia llevaría a exacerbar las desigualdades ya existentes o a generar otras nuevas. Para mayor información consúltese este explicador relacionado con el sesgo de la IA y la sección Riesgos de este recurso.

Inicio

¿De qué modo la IA y el AA son relevantes en el espacio cívico y para la democracia?

Colmillos de elefante retratados en Uganda. Los algoritmos de IA/AA y los datos históricos pueden emplearse en la observación de la vida silvestre para predecir las incursiones de los cazadores furtivos. Crédito de la fotografía: NRCN.

La difundida proliferación, rápido despliegue, escala, complejidad e impacto de la IA sobre la sociedad es un tema de gran interés y preocupación para los gobiernos, la sociedad civil, las ONG, organizaciones de derechos humanos, empresas y el público en general. Los sistemas de IA podrían requerir de diversos grados de interacción humana o ninguna en. Cuando se les aplica en el diseño, la operación y el suministro de servicios, la IA/AA brindan el potencial de proveer nuevos servicios y mejorar la velocidad, focalización, precisión, eficiencia, consistencia, calidad o performance de los ya existentes. Pueden brindar nuevas ideas al hacer visibles conexiones, relaciones y patrones antes no descubiertos, y ofrecer nuevas soluciones. Al analizar grandes cantidades de datos, los sistemas de AA ahorran tiempo, dinero y esfuerzos. Algunos ejemplos de la aplicación de la IA/AA en diferentes ámbitos incluyen el uso de algoritmos de IA/AA y datos históricos en la conservación de la vida silvestre para predecir las incursiones de los cazadores furtivos, y para descubrir nuevas especies de virus.

Diagnóstico microscópico de la tuberculosis en Uzbekistán. Los sistemas de IA/AA ayudan a los profesionales del cuidado de la salud en el diagnóstico médico y en la detección de enfermedades. Crédito de la fotografía: USAID.

Las capacidades predictivas de la IA y su aplicación así como del AA en la categorización, organización, clustering y búsqueda de información han traído mejoras en muchos campos y ámbitos, entre ellos el cuidado de la salud, el transporte, la gobernanza, educación, energía y en evitar accidentes, así como en la seguridad, la prevención del crimen, la vigilancia policial, la aplicación de la ley, la gestión urbana y el sistema judicial. Por ejemplo, el AA puede usarse para seguir el progreso y la efectividad de los programas de gobierno y filantrópicos. Las administraciones de las ciudades, las de las ciudades inteligentes, inclusive, emplean el AA para analizar datos acumulados a lo largo del tiempo acerca del consumo de energía, la congestión de tráfico, los niveles de contaminación y los desechos, para así monitorear y administrar estas cuestiones e identificar patrones en su generación, consumo y manejo.

Mapas digitales creados en Mugumu, Tanzania. La inteligencia artificial puede apoyar la planificación del desarrollo de la infraestructura y la preparación para los desastres. Crédito de la fotografía: Bobby Neptune para DAI.

La IA también se usa en el monitoreo del clima, el pronóstico del tiempo, la predicción de desastres y peligros, y la planificación del desarrollo de la infraestructura. En el cuidado de la salud, los sistemas de IA ayudan a los profesionales en el diagnóstico médico, la cirugía asistida por robots, una detección más fácil de enfermedades, la predicción de brotes epidémicos, el rastreo de la(s) fuente(s) de la propagación de enfermedades y así sucesivamente. La policía y las agencias de seguridad emplean sistemas de vigilancia basados en la IA/AA, sistemas de reconocimiento facial, drones, y la vigilancia policial predictiva para la seguridad y protección de la ciudadanía. De otro lado, muchas de estas aplicaciones plantean preguntas acerca de la autonomía individual, la privacidad, seguridad, la vigilancia de masas, la desigualdad social y su impacto negativo sobre la democracia (véase la sección Riesgos).

Peces cogidos en la costa de Kema, Célebes septentrional, Indonesia. El reconocimiento facial se usa para identificar las especies de pescado y contribuir a las prácticas de pesca sostenible. Crédito de la fotografía: cortesía de USAID SNAPPER.

La IA y el AA tienen ambos implicaciones tanto positivas como negativas para las políticas públicas así como para las elecciones, y para la democracia de modo más amplio. Si bien es cierto que los datos pueden usarse para maximizar la efectividad de una campaña mediante mensajes focalizados que ayuden a persuadir a posibles votantes, también pueden emplearse para suministrar propaganda o desinformación a públicos vulnerables. Durante la campaña presidencial de EE.UU de 2016, por ejemplo, Cambridge Analytica utilizó big data y el aprendizaje automático para adaptar los mensajes a los votantes basándose en predicciones a su susceptibilidad a distintos argumentos.

Durante las elecciones del Reino Unido y de Francia en 2017 se usaron, bots políticos para propagar desinformación en las redes sociales y filtrar mensajes electrónicos de campaña privados. Estos bots autónomos están “programados para propagar agresivamente mensajes políticos unilaterales para fabricar así la ilusión del apoyo popular”, o incluso disuadir a ciertas poblaciones de sufragar. Los deepfakes (audios o videos que han sido fabricados o alterados), algo posible gracias a la IA, también contribuyen a propagar la confusión y falsedades acerca de los candidatos políticos y otros actores relevantes. Aunque la inteligencia artificial puede usarse para exacerbar y amplificar la desinformación, también se la puede aplicar en posibles soluciones a este reto. Véase en la sección de Estudios de caso de este recurso, los ejemplos de cómo la industria de verificación de hechos viene aprovechando la inteligencia artificial para identificar y desmentir con mayor efectividad las narrativas falsas y engañosas.

Los ciberatacantes que buscan alterar los procesos electorales emplean el aprendizaje automático para focalizar eficazmente a las víctimas y diseñar estrategias con las cuales vencer las ciberdefensas. Es cierto que estas tácticas pueden usarse para prevenir los ciberataques, pero el nivel de inversión en tecnologías de inteligencia artificial por parte de actores maliciosos supera en muchos casos al de los gobiernos legítimos u otras entidades oficiales. Algunos de estos actores también emplean herramientas de vigilancia digital impulsadas por la IA para seguir y focalizarse en figuras de la oposición, defensores de los derechos humanos y otros críticos identificados.

Como ya se ha examinado en otra parte de este recurso, “el potencial que los sistemas automatizados de toma de decisiones tienen para reforzar sesgos y la discriminación, también tiene un impacto sobre el derecho a la igualdad y la participación en la vida pública”. El sesgo dentro de los sistemas de IA puede dañar a las comunidades históricamente subrepresentadas y exacerbar las divisiones de género existentes, así como los daños en línea que experimentan las mujeres candidatas, políticas, activistas y periodistas.

Las soluciones impulsadas por la IA pueden ayudar a mejorar la transparencia y la legitimidad de las estrategias de campaña, por ejemplo al aprovechar los bots políticos para el bien al ayudar a identificar artículos que contienen desinformación, o brindando una herramienta con la cual recolectar y analizar las preocupaciones de los votantes. La inteligencia artificial puede asimismo usarse para hacer que el trazado de los distritos electorales sea menos partidario (aun cuando en algunos casos también facilita el gerrymandering partidario) y prevenir o detectar fraudes, así como errores administrativos significativos. El aprendizaje automático puede informar la incidencia política prediciendo qué partes de una ley serán aprobadas a partir de evaluaciones algorítmicas del texto de la ley, con cuántos auspiciadores o partidarios cuenta, e incluso en qué parte del año es presentada.

El impacto pleno que el despliegue de sistemas de IA habrá de tener sobre las personas, la sociedad y la democracia no es conocido ni cognoscible, lo cual crea muchos problemas legales, sociales, reguladores, técnicos y éticos. El tema del sesgo nocivo en la inteligencia artificial y su intersección con los derechos humanos y los derechos civiles ha sido motivo de preocupación para gobiernos y activistas. El Reglamento General de Protección de Datos (RGPD) de la Unión Europea cuenta con disposiciones acerca de la toma de decisiones automatizada, el perfilamiento inclusive. En febrero de 2020 la Comisión Europea presentó un libro blanco sobre la IA como precuela a una posible legislación que rigiera su uso en la UE, en tanto que otra de sus organizaciones hizo recomendaciones sobre el impacto de los sistemas algorítmicos en los derechos humanos. Alemania, Francia, Japón e India asimismo han esbozado estrategias de IA para las políticas y leyes. El físico Stephen Hawking una vez dijo, “…el éxito en la creación de la IA podría ser el más grande acontecimiento en la historia de nuestra civilización. Pero también podría ser el último, salvo que aprendamos cómo evitar los riesgos”.

Inicio

Oportunidades

La inteligencia artificial y el aprendizaje automático pueden tener impactos positivos cuando se los emplea para promover la democracia, los derechos humanos y el buen gobierno. Lea a continuación cómo reflexionar de modo más eficaz y seguro acerca de la inteligencia artificial y el aprendizaje automático en su trabajo.

Detecte y venza los sesgos

Aunque la inteligencia artificial, como ya vimos, puede reproducir los sesgos humanos, también puede ser usada para combatir los sesgos inconscientes en contextos tales como el reclutamiento laboral. Los algoritmos diseñados de modo responsable pueden sacar sesgos escondidos a la luz, y en algunos casos empujar a la gente hacia resultados menos sesgados, por ejemplo escondiendo el nombre, la edad y otras características en el currículum de los candidatos que activen los sesgos.

Mejorar la seguridad y protección

Los sistemas de IA pueden usarse para detectar ataques a la infraestructura pública, como un ciberataque o un fraude con tarjetas de crédito. A medida que el fraude en línea se vuelve más desarrollado, las compañías, gobiernos y personas deben poder identificarlo rápidamente, o incluso prevenir que se dé. El aprendizaje automático puede ayudar a identificar patrones ágiles e inusuales que igualan o superan las estrategias tradicionales usadas para evitar la detección.

Moderar contenidos en línea nocivos

Cada segundo se sube una cantidad enorme de contenido a la internet y a las redes sociales. Simplemente hay demasiados videos, fotos y publicaciones como para que los humanos puedan revisarlos manualmente. Las herramientas de filtrado, como los algoritmos y las técnicas de aprendizaje automático, son usadas por muchas plataformas de medios sociales para filtrar los contenidos que violan sus condiciones de servicio (como materiales de abuso sexual infantil, violaciones de copyright o spam). La inteligencia artificial está en efecto operando en su cuenta de correo electrónico, filtrando automáticamente los contenidos de marketing no deseados de su buzón principal. El reciente arribo de los deepfakes y otros contenidos generados por computadora requieren de tácticas de identificación igual de avanzadas. Los verificadores de información y otros actores que trabajan para reducir [sic: diffuse] el peligroso y engañoso poder de los deepfakes vienen desarrollando su propia inteligencia artificial para identificar a estos medios de comunicación como falsos.

Búsquedas en la web

Los motores de búsqueda operan con sistemas algorítmicos de ranking. Estos motores ciertamente no están libres de serios sesgos y defectos, pero nos permiten ubicar información en las vastas extensiones de la internet. Los motores de búsqueda en la web (como Google y Bing) o dentro de plataformas y páginas web (como las búsquedas dentro de Wikipedia o The New York Times) pueden mejorar sus sistemas algorítmicos de ranking empleando el aprendizaje automático para así favorecer los resultados de alta calidad que pueden ser beneficiosos para la sociedad. Por ejemplo, Google tiene una iniciativa para resaltar reportajes originales, que prioriza el primer caso de una noticia antes que las fuentes que vuelven a publicar la información.

Traducción

El aprendizaje automático ha hecho posibles unos avances realmente increíbles en la traducción. Por ejemplo, DeepL es una pequeña compañía de traducción automática que ha superado las capacidades traductoras hasta de las más grandes empresas tecnológicas. Otras compañías también han creado algoritmos de traducción que permiten a personas de todo el mundo traducir textos a su lengua preferida, o comunicarse en otras lenguas fuera de aquellas que conocen bien, lo que ha promovido el derecho fundamental del acceso a la información, así como el derecho a la libertad de expresión y a ser escuchado.

Inicio

Riesgos

El uso de tecnologías emergentes como la IA puede también generar riesgos para la democracia y en los programas de la sociedad civil. Lea a continuación cómo aprender a discernir los posibles peligros asociados con la inteligencia artificial y el aprendizaje automático en el trabajo de DR, así como de qué formas mitigar las consecuencias no intencionales, y también las intencionales.

Discriminación de grupos marginados

Hay varias formas en que la IA puede tomar decisiones que podrían generar la discriminación, entre ellas cómo se definen la “variable objetivo” y las “etiquetas de clase en el transcurso del proceso de etiquetado de los datos de entrenamiento; cuando se recogen los datos de entrenamiento; durante la selección de características; y cuando se identifican las proxies. Es asimismo posible configurar intencionalmente un sistema de IA para que discrimine a uno o más grupos. Este video explica de qué modo los sistemas de reconocimiento facial disponibles comercialmente, a los que se entrenó con conjuntos de datos sesgados racialmente, discriminan a las personas de piel oscura, a las mujeres y a las de género diverso.

La precisión de los sistemas de IA se basa en la forma en que el AA procesa el Big Data, lo cual a su vez depende del tamaño del conjunto de datos. Cuanto más grande sea, tanto más probable es que las decisiones del sistema sean más precisas. Sin embargo, es menos probable que las personas negras y la gente de color (PoC), los discapacitados, las minorías, los indígenas, la gente LGBTQ+ y otras minorías más estén representadas en un conjunto de datos debido a la discriminación estructural, el tamaño del grupo o a actitudes externas que impiden su participación plena en la sociedad. El sesgo en los datos de entrenamiento refleja y sistematiza la discriminación existente. Y dado que un sistema de IA es a menudo una caja negra, resulta difícil establecer por qué la IA toma ciertas decisiones acerca de ciertas personas o grupos, o probar concluyentemente que ha tomado una decisión discriminatoria. Resulta por ende difícil evaluar si ciertas personas fueron discriminadas debido a su raza, sexo, estatus marginal u otras características protegidas. Por ejemplo, los sistemas de IA usados en la vigilancia policial predictiva, la prevención del delito, la aplicación de la ley y el sistema de justicia penal son, en cierto sentido, herramientas para la evaluación del riesgo. Empleando datos históricos y algoritmos complejos generan puntajes predictivos que buscan indicar la probabilidad de que se cometa un delito, la ubicación y momento probables, y las personas que posiblemente estén involucradas. Cuando se depende de datos sesgados, o de estructuras de toma de decisiones sesgadas, estos sistemas pueden terminar reforzando estereotipos acerca de los grupos desfavorecidos, marginados o minoritarios.

Un estudio efectuado por la Royal Statistical Society señala que la “…vigilancia predictiva de los delitos relacionados con las drogas tuvo como resultado una vigilancia cada vez más desproporcionada de comunidades históricamente sobre-vigiladas… y en casos extremos, el contacto policial adicional generará oportunidades adicionales de violencia policial en áreas sobre-vigiladas. Cuando el costo de la vigilancia policial es desproporcionado en comparación con el nivel de los delitos, esto equivale a una política discriminatoria”. De igual modo, cuando las aplicaciones móviles para una navegación urbana segura o el software de puntaje crediticio, banca, seguros, cuidado de la salud y la selección de empleados y estudiantes universitarios depende de datos y decisiones sesgados, entonces reforzarán la desigualdad social y los estereotipos negativos y nocivos.

Los riesgos asociados con los sistemas de IA se exacerban cuando éstos toman decisiones o formulan predicciones que involucran a grupos vulnerables tales como los refugiados, o acerca de situaciones de vida o muerte, como en el caso del cuidado médico. Un informe de 2018 preparado por el Citizen Lab de la Universidad de Toronto anota: “Muchos [de los inmigrantes o de quienes buscan asilo] provienen de países asolados por la guerra que buscan protección de la violencia y la persecución. La naturaleza matizada y compleja de muchos refugiados y pedidos de asilo puede ser pasada por alto por estas tecnologías, lo cual provocará serias violaciones de los derechos humanos protegidos internacional y localmente, bajo la forma de sesgos, discriminación, violaciones de la privacidad, cuestiones del debido proceso y de justicia procesal, entre otros. Estos sistemas habrán de tener ramificaciones de vida o muerte para la gente común, muchas de las cuales están huyendo para salvar su vida”. En el caso de los usos médicos y de cuidado de la salud, lo que está en juego es particularmente alto puesto que una decisión errada tomada por el sistema de IA podría potencialmente poner vidas en riesgo, o alterar drásticamente la calidad de vida o el bienestar de las personas que se ven afectadas por ella.

Vulnerabilidades en la seguridad

Los hackers maliciosos y las organizaciones criminales pueden emplear los sistemas de AA para identificar vulnerabilidades y poner la mira en la infraestructura pública o en sistemas privados como la internet de las cosas (IdC) y los vehículos autónomos.

Si una entidad maliciosa pone la mira en los sistemas de IA empleados en la infraestructura pública, como las ciudades inteligentes, redes eléctricas inteligentes, instalaciones nucleares, instalaciones para el cuidado de la salud y los sistemas bancarios, entre otros “serán más difíciles de proteger, puesto que estos ataques probablemente se harán más automatizados y complejos, y el riesgo de los fallos en cascada resultará más difícil de predecir. Un adversario inteligente puede o bien intentar descubrir y explotar las debilidades ya existentes en los algoritmos, o sino crear uno al cual posteriormente podrá aprovechar”. El aprovechamiento puede darse, por ejemplo, mediante un ataque de envenenamiento, que interfiere con los datos de entrenamiento cuando se usa el aprendizaje automático. Los atacantes podrían asimismo “usar algoritmos de AA para identificar automáticamente vulnerabilidades y optimizar los ataques estudiando y aprendiendo en tiempo real acerca de los sistemas que tienen en la mira”.

Privacidad y protección de datos

El uso de sistemas de IA sin dispositivos de seguridad y mecanismos de reparación puede plantear muchos riesgos a la privacidad y la protección de datos. Las empresas y gobiernos recolectan inmensas cantidades de datos personales para así entrenar a los algoritmos de los sistemas de IA que brindan servicios o efectúan tareas específicas. Los delincuentes, gobiernos intolerantes y personas con intenciones malignas a menudo ponen la mira en estos datos para así tener un beneficio económico o político. Por ejemplo, de filtrarse los datos de salud captados de las aplicaciones de celulares inteligentes y aparatos vestibles conectados a la internet, podrían ser usados incorrectamente por agencias de crédito, compañías de seguros, brókeres de información, cibercriminales, etc. La cuestión no son solo las filtraciones, sino también los datos que la gente entrega voluntariamente sin control sobre cómo serán usados más adelante. Esto incluye lo que compartimos tanto con las compañías como con las agencias de gobierno. La violación o abuso de los datos no personales, como los datos anonimizados, las simulaciones, los datos sintéticos o las normas generalizadas de procedimientos, podrían también afectar los derechos humano.

Chilling effect (efecto inhibidor)

Los sistemas de IA usados para la vigilancia y protección, condenas penales, fines legales, etc., se convierten en una nueva vía para el abuso del poder por parte del Estado, para controlar a la ciudadanía y a los disidentes políticos. El temor al perfilamiento, la puntuación, la discriminación y la vigilancia digital omnipresente pueden tener un efecto inhibidor sobre la capacidad o la disposición de la ciudadanía a ejercer sus derechos o a expresarse. Muchas personas modificarán su comportamiento a fin de conseguir los beneficios de contar con un buen puntaje y de evitar las desventajas que se siguen de tener uno malo.

Opacidad (naturaleza de caja negra de los sistemas de IA)

Podemos interpretar la opacidad como ya sea la falta de transparencia, ya de inteligibilidad. Los algoritmos, el código del software, el procesamiento detrás de escena y el proceso mismo de toma de decisiones podrían no ser inteligibles para quienes no son expertos o profesionales especializados. Por ejemplo, en los asuntos legales o judiciales, las decisiones que un sistema de IA toma no viene con explicaciones, a diferencia de las de los jueces, quienes están obligados a justificar su orden legal o juicio.

Desempleo tecnológico

Los sistemas de automatización, los de IA/AA inclusive, vienen usándose cada vez más para reemplazar el trabajo humano en diversos ámbitos e industrias, eliminando así un gran número de empleos y generando un desempleo estructural (al cual se conoce como desempleo tecnológico). Con la introducción de los sistemas de IA/AA se perderán algunos tipos de trabajos, otros serán transformados, y aparecerán otros nuevos. Es probable que los nuevos trabajos requieran de habilidades específicas o especializadas que sean adaptables a dichos sistemas.

Pérdida de autonomía individual y de la condición de persona

El perfilamiento y la puntuación en la IA despiertan el temor de que las personas sean deshumanizadas y reducidas a un perfil o puntaje. Los sistemas de toma de decisión automatizados podrían afectar el bienestar, la integridad física y la calidad de vida. Esto afecta lo que constituye el consentimiento de una persona (o la falta del mismo), la forma en que se dio, comunicó y entendió el consentimiento, así como el contexto dentro del cual es válido. “[E]l debilitamiento de la base libre de nuestro consentimiento individual —ya sea mediante una distorsión total de la información o incluso con tan solo la ausencia de transparencia— pone en peligro las bases mismas de cómo expresamos nuestros derechos humanos y hacemos que otros rindan cuentas por su privación abierta (o incluso latente)”. – Human Rights in the Era of Automation and Artificial Intelligence

Inicio

Preguntas

Hágase estas preguntas si está intentando entender las implicaciones que la inteligencia artificial y el aprendizaje automático tendrán en su entorno laboral, o si está considerando usar algunos aspectos de estas tecnologías como parte de su programación DRG:

  1. ¿La inteligencia artificial o el aprendizaje automático son una herramienta apropiada, necesaria y proporcional para usarla en este proyecto y con esta comunidad?
  2. ¿Quién está diseñando y supervisando la tecnología? ¿Pueden explicar lo que está sucediendo en las distintas etapas del proceso?
  3. ¿Qué datos están usándose para diseñar y entrenar la tecnología? ¿De qué modos podrían generar una tecnología sesgada o de funcionamiento defectuoso?
  4. ¿Qué razones tiene para confiar en las decisiones de la tecnología? ¿Entiende por qué está obteniendo cierto resultado, o podría acaso haber un error en algún lado? ¿Hay algo que no pueda ser explicado?
  5. ¿Confía en que la tecnología trabajará como se desea cuando la use con su comunidad y en su proyecto, en lugar de en un entorno de laboratorio (o uno teórico)? ¿Qué elementos de su situación podrían causar problemas o cambiar el funcionamiento de la tecnología?
  6. ¿Quién está analizando e implementando la tecnología de IA/AA? ¿Entienden la tecnología y son conscientes de sus posibles defectos y peligros? ¿Es posible que tomen decisiones sesgadas, ya sea por malinterpretar la tecnología o por alguna otra razón?
  7. ¿Con qué medidas cuenta para identificar y hacer frente a los sesgos potencialmente dañinos de la tecnología?
  8. ¿Con qué dispositivos de seguridad reguladores y mecanismos de reparación cuenta, para las personas que sostienen que la tecnología ha sido injusta o que ha abusado de ellos de algún modo?
  9. ¿Hay alguna forma de que su tecnología de IA/AA pueda perpetuar o incrementar las desigualdades sociales, incluso si los beneficios de su uso superan estos riesgos? ¿Qué hará para minimizar estos problemas y quedar alerta a ellos?
  10. ¿Está seguro de que la tecnología acata las normas y estándares legales relevantes, el RGPD inclusive?
  11. ¿Hay alguna forma de que esta tecnología pueda no discriminar a la gente por sí misma, pero que si pueda provocar discriminación o alguna otra violación de derechos, por ejemplo cuando se la aplica en contextos diferentes, o si se comparte con actores no capacitados? ¿Qué podría hacer para prevenir esto?

Inicio

Estudios de caso

Aprovechando la inteligencia artificial para promover la integridad de la información

eMonitor+, del Programa de las Naciones Unidas para el Desarrollo, es una plataforma que opera con IA y que ayuda a “escanear en línea las publicaciones de las redes sociales para identificar violaciones electorales, desinformación, discursos de odio, polarización política y pluralismo, así como violencia en línea contra las mujeres”. El análisis de datos facilitado por eMonitor+ permite a las comisiones electorales y las partes interesadas de los medios de comunicación “observar la prevalencia, la naturaleza y el impacto de la violencia en línea. La plataforma depende del aprendizaje automático para seguir y analizar contenidos en los medios digitales y generar representaciones gráficas para la visualización de datos. eMonitor+ ha sido utilizado por Asociación Civil Transparencia y Ama Llulla de Perú, para mapear y analizar la violencia y el discurso de odio digitales en los diálogos políticos, así como por la Comisión Supervisora de las Elecciones durante la elección parlamentaria libanesa de 2022, para monitorear las posibles violaciones electorales, los gasto de campaña y la desinformación. La Alta Comisión Nacional Electoral de Libia también empleó a eMonitor+ para monitorear e identificar en línea la violencia contra las mujeres durante las elecciones.

“Cómo los verificadores de información de Nigeria están usando la IA contra la desinformación electoral”

Cómo los verificadores de información de Nigeria están usando la IA contra la desinformación electoral”

Antes de la elección presidencial de Nigeria en 2023, Full Fact, la organización verificadora de información del RU, “ofreció su suite de inteligencia artificial —que consta de tres herramientas que trabajan simultáneamente para automatizar los prolongados procesos de verificación de la información— para así ampliar enormemente esta capacidad en Nigeria”. Según Full Fact, estas herramientas no buscan reemplazar a los verificadores humanos, sino más bien ayudarles en el monitoreo y revisión manuales, que toman demasiado tiempo, dándoles así “más tiempo para hacer las cosas en que son mejores: entender lo que importa en el debate público, cuestionar las afirmaciones, revisar datos, hablar con expertos y compartir sus hallazgos”. Las herramientas expandibles, que incluyen funciones de búsqueda, alertas y en vivo, permiten a los verificadores “monitorear páginas web de noticias, redes sociales y transcribir afirmaciones hechas en vivo en la TV o la radio, para así hallar afirmaciones que verificar”.

Monitoreando el desarrollo de los cultivos: Agroscout

Monitoreando el desarrollo de los cultivos: Agroscout

El creciente impacto del cambio climático podría reducir aún más el rendimiento de los cultivos, especialmente en las regiones del mundo de mayor inseguridad alimentaria. Y nuestros sistemas alimentarios son responsables por alrededor del 30% de las emisiones de gases de efecto invernadero. La startup israelí AgroScout imagina un mundo en donde los alimentos se cultivan de modo más sostenible. “Nuestra plataforma usa IA para monitorear el desarrollo de los cultivos en tiempo real, y así planear con mayor precisión las operaciones de procesamiento y manufactura entre regiones, cultivadores y criadores”, dijo Simcha Shore, fundador y CEO de AgroScout. ‘Al utilizar la tecnología de la IA, AgroScout detecta a pestes y enfermedades tempranamente, lo que permite a los granjeros aplicar tratamientos precisos que reducen el uso de agroquímicos hasta en 85%. Esta innovación ayuda a minimizar el daño ambiental provocado por los agroquímicos tradicionales, lo que hace una contribución positiva a las prácticas agrícolas sostenibles’”.

Aprendizaje automático para la paz

El Machine Learning for Peace Project (Proyecto Aprendizaje Automático para la Paz) busca entender cómo es que el espacio cívico viene cambiando en países de todo el mundo que usan técnicas de aprendizaje automático de última generación. Al aprovechar las últimas innovaciones en el procesamiento de lenguaje natural, el proyecto clasifica “un corpus enorme de noticias digitales en 19 tipos de ‘acontecimientos’ de espacio cívico y 22 tipos de acontecimientos de Resurgent Authoritarian Influence (RAI, influencia autoritaria renaciente), que captan los esfuerzos realizados por regímenes autoritarios para influir en los países en vías de desarrollo”. Entre los “acontecimientos” del espacio cívico que vienen siguiéndose están el activismo, los golpes, las actividades electorales, los cambios legales y las protestas. Los datos de los acontecimientos del espacio cívico se combinan con “datos económicos de alta frecuencia para identificar impulsores claves del espacio cívico y predecir cambios en los meses siguientes”. En última instancia, el proyecto espera servir como una “herramienta útil para los investigadores que buscan datos ricos y de alta frecuencia sobre los regímenes políticos, así como para los decisores de políticas y activistas que luchan para defender la democracia en todo el mundo”.

Seguridad alimentaria: detectando enfermedades en cultivos usando el análisis de imágenes

Seguridad alimentaria: detectando enfermedades en cultivos usando el análisis de imágenes

“Las enfermedades de plantas son una amenaza no solo para la seguridad alimentaria a escala global, sino que pueden además tener consecuencias desastrosas para los pequeños agricultores cuya subsistencia depende de cultivos saludables”. Como primer paso para complementar las soluciones existentes al diagnóstico de enfermedades con un sistema de diagnóstico asistido por celulares, los investigadores usaron un conjunto de datos público de 54,306 imágenes de hojas de plantas enfermas y saludables, para así entrenar una “red neural convolucional profunda” que identifique automáticamente 14 especies de cultivos diferentes y 26 enfermedades singulares (o su ausencia).

Inicio

Referencias

A continuación encontrará los trabajos citados en este recurso.

Recursos adicionales

Inicio

Categories

Automatización

¿Qué es la automatización?

Una trabajadora en la línea de ensamblaje de una fábrica de cableado de autos en Bizerta, Túnez. La automatización del trabajo afecta desproporcionadamente a las mujeres, los pobres y otros miembros vulnerables de la sociedad. Crédito de la fotografía. Photo credit: Alison Wright for USAID, Tunisia, Africa

La automatización involucra técnicas y métodos a los que se aplica para permitir que las máquinas, dispositivos y sistemas funcionen con poca o ninguna participación humana. Se la usa, por ejemplo, en aplicaciones para el manejo de los semáforos de una ciudad, navegar aviones, manejar y configurar distintos elementos de una red de telecomunicaciones, en cirugía asistida por robots, y hasta en la narración automatizada (que usa software de inteligencia artificial para crear relatos verbales). La automatización puede mejorar la eficiencia y reducir los errores, pero también crea nuevas oportunidades para éstos, e introduce nuevos costos y retos para los gobiernos y la sociedad.

¿Cómo funciona la automatización?

Los procesos pueden ser automatizados programando ciertos procedimientos para que se efectúen sin intervención humana (como un pago recurrente de una tarjeta de crédito o app del celular), o sino vinculando dispositivos electrónicos para que se comuniquen directamente entre sí (como los vehículos autónomos que se comunican con otros y con la infraestructura vial). La automatización puede involucrar el uso de sensores de temperatura y de luz, alarmas, microcontroladores, robots y más. La automatización del hogar puede, por ejemplo, incluir a asistentes para la casa como Amazon Echo, Google Home y OpenHAB. Algunos sistemas de automatización son virtuales, por ejemplo los filtros de correo electrónico que automáticamente clasifican los mensajes entrantes en distintas carpetas, y los sistemas de moderación del contenido en línea con IA.

La arquitectura y el funcionamiento exactos de los sistemas de automatización dependen de su finalidad y aplicación. Sin embargo no debiéramos confundir la automatización con la inteligencia artificial en donde un proceso liderado por un algoritmo ‘aprende’ y cambia en el tiempo: por ejemplo, un algoritmo que examina miles de solicitudes de empleo y aprende a partir de los patrones presentes en ellas está usando inteligencia artificial, en tanto que un chatbot que responde a las preguntas de los candidatos está usando la automatización.

Para mayor información acerca de los distintos componentes de los sistemas de automatización, lea también los recursos acerca de la Internet de las cosas y sensores, robots y drones, and biométrica.

Inicio

¿De qué modo es la automatización relevante en el espacio cívico y para la democracia?

Los procesos automatizados pueden construirse para que incrementen la transparencia, precisión, eficiencia y escala. Pueden ayudar a minimizar el esfuerzo (el trabajo) y el tiempo, reducir errores y costos, mejorar la calidad y/o la precisión en tareas/procesos, efectuar labores que son demasiado agotadoras, peligrosas o que caen más allá de las capacidades físicas de los humanos, y en general libera a éstos de tareas repetitivas y monótonas.

Desde una perspectiva histórica la automatización no es nueva: la primera revolución industrial en el siglo XVIII unció el poder del vapor y el agua; la revolución tecnológica de la década de 1880 se basó en ferrocarriles y telégrafos, y la revolución digital del siglo XX vio los inicios de la computación. Cada una de estas transiciones trajo consigo cambios fundamentales no sólo en la producción industrial y la economía, sino también en la sociedad, el gobierno y las relaciones internacionales.

Los procesos automatizados, cuando los gobiernos los emplean, prometen servicios estatales con mayor velocidad, eficiencia y cobertura. A esto a menudo se denomina e-gobierno, gobernanza electrónica o gobierno digital. El e-gobierno incluye las comunicaciones e información que el gobierno comparte en la red (a veces publicando hasta presupuestos y agendas gubernamentales), la facilitación de transacciones financieras en línea como el llenado electrónico de las declaraciones de impuestos, la digitalización de los historiales médicos, el sufragio electrónico y la ID digital.

La automatización puede además usarse en las elecciones para ayudar a contar los votos, registrar a los votantes y monitorear la participación electoral para así incrementar la confianza en la integridad del proceso democrático. Sin la automatización, el conteo de votos puede tomar semanas o meses, y podría llevar a que los resultados sean cuestionados por fuerzas antidemocráticas y a un posible desencanto de los votantes con el sistema democrático. El sufragio electrónico y el conteo automatizado de los votos ya ha quedado politizado en muchos países como Kazajistán y Pakistán, pero muchos países están adoptando cada vez más los sistemas de votación electrónicos para ayudar a incrementar la participación de los electores y acelerar el proceso electoral.

Un trabajador de salud recibe información acerca de un brote epidémico en Brewerville, Liberia. Los procesos automatizados prometen suministrar servicios estatales con mayor velocidad, eficiencia y cobertura. Crédito de la fotografía: Sarah Grile.

La automatización de los servicios gubernamentales genera numerosos beneficios, tal como lo explica el K4D helpdesk del RU al reducir el costo de la entrega del servicio, mejorar la calidad y la cobertura (por ejemplo, mediante la telemedicina o los drones), fortalecer las comunicaciones, el monitoreo y la retroalimentación, y en algunos casos alentando la participación ciudadana a nivel local. In Indonesia, por ejemplo, la Agencia del Servicio Civil (BKN) introdujo un sistema de pruebas asistido por computadora (CAT), para alterar el viejo sistema previo de prueba manual que generaba oportunidades desenfrenadas para la corrupción en el reclutamiento del servicio civil por parte de los funcionarios del ministerio. Con el nuevo sistema, la base de datos de preguntas está firmemente controlada y los resultados se publican en tiempo real fuera del centro de pruebas.

In India, se usa un sistema automatizado basado en una computadora diseñada específicamente (una Advanced Virtual RISC) y el estándar GSM (Global System for Mobile) usual de comunicaciones, para informar a los agricultores las condiciones exactas de los campos y señalar los siguientes pasos necesarios, con funciones de comando tales como el riego, arado, la utilización de semillas y el efectuar otras actividades agrícolas.

Dron usado para programar el riego en la parte meridional de Bangladés. Los sistemas automatizados tienen vastas aplicaciones en la agricultura. Crédito de la fotografía: Alanuzzaman Kurishi.

Al igual que las revoluciones industriales previas, la automatización cambia la naturaleza del trabajo y de no ser planificados cuidadosamente, dichos cambios podrían provocar el desempleo en ciertos sectores. Retirar a los humanos de los procesos trae consigo nuevas oportunidades para los errores (como el ‘sesgo de la automatización’) y plantea nuevas preguntas legales y éticas. Véase más adelante la sección Riesgos.

Inicio

Oportunidades

Centro de control de distribución de energía (PDC) de la Islamabad Electric Supply Company (IESCO), Pakistán. Los medidores inteligentes permiten monitorear la demanda y oferta energética, y el rechazo de carga en tiempo real. Crédito de la fotografía: USAID.

La automatización puede tener impactos positivos cuando se la usa para promover la democracia, los derechos humanos y las cuestiones de gobernanza. Lea a continuación cómo reflexionar de modo más eficaz y seguro acerca de la automatización en su trabajo.

Incremento en la productividad

La automatización puede mejorar el output al mismo tiempo que reduce el tiempo y trabajo requeridos, incrementando así la productividad de los trabajadores y la demanda de otros tipos de trabajo. Por ejemplo, ella puede optimizar la revisión de documentos, recortando el tiempo que los abogados necesitan para revisar los documentos o los académicos las fuentes, etc. En Azerbaiyán, el gobierno se asoció con el sector privado en el uso de un sistema automatizado para reducir el número pendiente de casos judiciales relativamente simples, como las demandas de cuentas impagas. Cuando la automatización incrementa la calidad de los servicios o bienes y/o reduce su costo, resulta posible cubrir una demanda más significativa de bienes o de servicios.

Mejoras en los procesos y outputs

La automatización puede mejorar la velocidad, eficiencia, calidad, consistencia y cobertura del suministro de un servicio y reducir los errores humanos, el tiempo invertido y los costos. Puede por ende hacer posible que las actividades crezcan en escala. Por ejemplo, el PNUD y el gobierno de las Maldivas la usaron para crear mapas en 3-D de las islas y graficar su topografía. Tener esta información registrada acelerará los esfuerzos de socorro y rescate en caso de desastres. El uso de drones también redujo el tiempo y el dinero requeridos para llevar a cabo esta labor: el mapeo de 11 islas usualmente tomaba casi un año, pero el uso de un dron redujo esto a un día. Véanse ejemplos adicionales en el recurso sobre Robots y drones.

Optimizar una tarea automatizada por lo general requiere de trade-offs entre el costo, la precisión, el margen de error permisible y la escala. A veces podría necesitar que toleremos más errores a fin de reducir así los costos o alcanzar una escala más grande. Para mayor información véase la sección “Knowing when automation offers a suitable solution to the challenge at hand (Saber cuándo la automatización ofrece una solución idónea para el problema a mano)” en Automation of government processes (Automatización de los procesos gubernamentales).

En el caso de los procesos democráticos, la automatización puede ayudar facilitando el acceso a los votantes que no pueden viajar a los centros de votación vía el voto electrónico remoto, o usando sistemas accesibles en dichos centros. Es más, el uso de la automatización en el conteo de los votos puede ayudar a disminuir los errores en algunos casos e incrementar la confianza en el proceso democrático.

Incremente la transparencia

La automatización puede incrementar la transparencia haciendo que los datos y la información estén fácilmente a disposición del público, construyendo así su confianza y ayudando a la rendición de cuentas. En la India, el Departamento Estatal de Transporte de Karnataka cuenta con centros de exámenes de conducir automatizados esperando así eliminar los sobornos en la emisión de las licencias de conductor. Una serie de cámaras de alta definición y sensores, colocados a lo largo de la pista de prueba, captan el movimiento del vehículo, en tanto que un sistema computarizado decide si el conductor ha aprobado la prueba o si ha sido reprobado. Véase también “Are emerging technologies helping win the fight against corruption in developing countries? (¿Las tecnologías emergentes están ayudando a combatir la corrupción en los países en vías de desarrollo?)”.

Inicio

Riesgos

El uso de las tecnologías emergentes puede también crear riesgos en los programas de la sociedad civil. Lea a continuación cómo discernir los posibles peligros asociados con la automatización en el trabajo DRG, así como de qué modo mitigar las consecuencias involuntarias y voluntarias.

Cuestiones laborales

Cuando la automatización se usa para reemplazar trabajadores humanos, la pérdida resultante de puestos de trabajo provoca un desempleo estructural al que se conoce como “desempleo tecnológico”. El desempleo estructural afecta de modo desproporcionado a las mujeres, los pobres y otros miembros vulnerables de la sociedad, salvo que sean vueltos a capacitar y se les brinde la protección adecuada La automatización además requiere de mano de obra calificada que pueda operar, supervisar o mantener sistemas automatizados, y eventualmente crea puestos para una parte más pequeño de la población. Pero el impacto inmediato de esta transformación laboral puede ser perjudicial para la gente y las comunidades que no tienen redes de seguridad social u oportunidades para encontrar otro trabajo.

Además se han establecido vínculos entre la creciente automatización y el alza en la preferencia por los políticos populistas, a medida que la pérdida de empleos comienza a afectar en particular a los trabajadores de bajos ingresos. Un estudio publicado en Proceedings of the National Academy of Sciences (PNAS) halló una correlación entre el impacto de la globalización y la automatización de un lado, y la creciente participación electoral de los partidos políticos populistas de derecha en varios países europeos del otro. Si bien la automatización puede tener un impacto positivo en la utilidad total, los trabajadores no educados y con bajos salarios podrían sentirse particularmente golpeados al mantenerse su salario bajo y sus labores ser reemplazadas con sistemas automatizados.

La discriminación de los grupos marginados y las minorías, y la creciente desigualdad social

Los sistemas automatizados equipados con inteligencia artificial (IA) pueden producir resultados que discriminan a algunos grupos marginados y minoritarios, cuando el sistema ha aprendido a partir de patrones de aprendizaje, conjuntos de datos o de una toma de decisiones humana sesgados. Los outputs de sistemas automatizados equipados con IA podrían reflejar sesgos sociales, prejuicios y un trato discriminatorio dado a ciertos grupos en la vida real. Los sesgos podrían también darse debido a la implementación humana de sistemas automatizados, por ejemplo cuando no funcionan en el mundo real como sí lo hicieron en un laboratorio o entorno teórico, o cuando los humanos que trabajan con las máquinas malinterpretan o usan incorrectamente la tecnología automatizada.

Hay numerosos ejemplos de discriminación, racial y de otro tipo, que fueron ya replicadas, ya magnificadas por la automatización. Para dar un ejemplo tomado del campo de la vigilancia policial predictiva, luego de efectuar una investigación en 2016 ProPublica reportó que COMPAS, una herramienta de IA basada en datos que buscaba asistir a los jueces de los EE.UU., estaba sesgada contra la población negra cuando establecía si un delincuente condenado cometería más delitos en el futuro. Para mayor información sobre la vigilancia policial predictiva véase “How to Fight Bias with Predictive Policing” (Cómo combatir el sesgo con la vigilancia policial predictiva”) y “A Popular Algorithm Is No Better at Predicting Crimes Than Random People (“Un algoritmo popular no predice mejor los delitos que personas aleatorias”).

Estos riesgos también existen en otros ámbitos. El informe titulado “Bots at the gate: A human rights analysis of automated decision-making in Canada’s immigration and refugee system” (“Bots en la puerta: un análisis de derechos humanos de la toma de decisiones automatizada en el sistema de inmigración y refugiados de Canadá”), publicado por la Universidad de Toronto y Citizen Lab, señala que “[m]uchos [de los que buscan asilo y de los migrantes] provienen de países asolados por la guerra y que buscan protección de la violencia y la persecución. La naturaleza matizada y compleja de muchos pedidos de refugio e inmigración se pierde en estas tecnologías, lo que genera serias violaciones de derechos humanos protegidos internacional y nacionalmente bajo la forma de sesgos, discriminación, violaciones de la privacidad, el debido proceso y de cuestiones de justicia procesal, entre otros Estos sistemas tendrán ramificaciones de vida o muerte para la gente común, muchos de los cuales están huyendo para salvar su vida”.

Protección legal insuficiente

Las leyes y regulaciones existentes podrían no ser aplicables a los sistemas de automatización, y allí donde sí lo son, la aplicación podría no estar bien definida. No todos los países cuentan con leyes que protegen a las personas de estos peligros. Según el RGPD (el Reglamento General de Protección de Datos europeo), las personas tienen el derecho a no quedar sujetas a una decisión basada únicamente en un procesamiento automatizado, lo que incluye el perfilamiento. En otras palabras, son humanos los que deben supervisar las decisiones importantes que afectan a las personas. Pero no todos los países tienen estas normas o las respetan, y ni siquiera el RGPD es hecho valer en todas las situaciones. Mientras tanto, las personas tienen que reclamar activamente sus derechos y cuestionar estas decisiones, usualmente buscando asistencia legal, lo que cae más allá de las posibilidades de muchos de ellos. Los grupos perjudicados por esta discriminación tienden a tener menos recursos y un acceso limitado a la protección de los derechos humanos, lo que les permitiría cuestionar tales decisiones.

Sesgos de la automatización

La gente tiende a tener fe en la automatización y a creer que la tecnología es precisa, neutral y que no discrimina. Podemos describir esto como el “sesgo de la automatización”: cuando los humanos que trabajan con o supervisan los sistemas automatizados tienen a ceder la responsabilidad a la máquina, y confían en su capacidad para tomar decisiones de modo acrítico. Se ha mostrado que el sesgo de la automatización tiene impactos perjudiciales en los sectores automatizados, lo que incluye la generación de errores en el cuidado de la salud. Este sesgo también tiene un papel en la discriminación descrita líneas arriba.

Preocupaciones éticas no exploradas

El uso cada vez más grande de la automatización genera interrogantes y preocupaciones éticas que podrían no haber sido consideradas antes del advenimiento de la tecnología misma. Por ejemplo, ¿quién es responsable si un vehículo autónomo participa en un accidente? ¿Cuánta información personal debiera darse a los proveedores del servicio de salud para facilitar su monitoreo automatizado? En muchos casos será necesario contar con más investigaciones antes de siquiera poder comenzar a abordar estos dilemas.

Cuestiones relacionadas con el consentimiento individual

Cuando los sistemas automatizados toman decisiones que afectan las decisiones de la gente borran la formación, el contexto y la expresión de su consentimiento (o la falta del mismo), tal como se describe en este pasaje: “…[E]l debilitamiento de la libre elección de nuestro consentimiento individual —ya sea a través de la distorsión abierta de la información, o incluso debido sólo a la ausencia de transparencia— pone en peligro las mismas bases de cómo expresamos nuestros derechos humanos y hacemos responsables a otros de su privación abierta (o incluso latente)”.Véase información adicional sobre el consentimiento informado en el recurso de Protección de datos.

Altos costos de capital

Las tecnologías de automatización a gran escala tienen costos de capital sumamente altos, lo cual es un riesgo en caso su uso no sea viable en el largo plazo, o que de algún otro modo no asegure retornos conmensurables o la recuperación de los costos. De ahí que los proyectos de automatización financiados con fondos públicos (por ejemplo, parte de la infraestructura de una “ciudad inteligente ”) necesitan contar con exhaustivos estudios de factibilidad que evalúen las necesidades y aseguren la viabilidad en el largo plazo. Por otro lado, el costo inicial podría también ser demasiado alto para las personas y las comunidades. Una planta automatizada de energía solar o un sistema de cosecha de agua de lluvia son una gran inversión para una comunidad. Pero el costo podría recuperarse, sin embargo, en el largo plazo, dependiendo de la tarifa de la energía de la red o del agua.

Inicio

Preguntas

Hágase estas preguntas si está intentando entender las implicaciones que la automatización habrá de tener en su entorno laboral, o si está considerando usar algunos aspectos de ella como parte de sus programas de DRG:

  1. ¿Es la automatización un método idóneo para el problema que está intentando resolver?
  2. ¿Cuáles son los indicadores o factores rectores que determinan si la automatización es una solución idónea y requerida para un problema o reto particular?
  3. ¿Qué riesgos están involucrados con respecto a la seguridad, el potencial para la discriminación, etc.? ¿Cómo minimizará estos riesgos? ¿Los beneficios que tiene el uso de la automatización o una tecnología automatizada compensan estos riesgos?
  4. ¿Quién trabajará con estas tecnologías y las supervisará? ¿Cuál es su capacitación y cuáles sus responsabilidades? ¿Quién es legalmente responsable en caso de accidentes?
  5. ¿Cuáles son los efectos que el uso de estas tecnologías tiene a largo plazo en el entorno o comunidad circundantes? ¿Cuáles sus efectos sobre las personas, empleos, salarios, bienestar social, etc.? ¿Qué medidas son necesarias para asegurar que el uso de dicha tecnologías no agravará o reforzará la desigualdad debido al sesgo de la automatización o de algún otro modo?
  6. ¿Cómo se asegurará de que los humanos supervisen toda decisión importante hecha acerca de personas utilizando procesos automatizados? (¿Cómo acatará el RGPD o cualquier otra regulación aplicable?)
  7. ¿Qué salvaguardas de privacidad y seguridad serán necesarias para aplicar dichas tecnologías en un contexto dado con respecto a, por ejemplo, la ciberseguridad, la protección o la privacidad personal, el proteger a los operarios de accidentes, etc.? ¿Cómo incorporará dichas salvaguardias?

Inicio

Estudios de caso

Vehículos agrícolas automatizados

Vehículos agrícolas automatizados

“Las predicciones del incremento de la población mundial en las décadas venideras exige nuevos procesos productivos que sean más eficientes, seguros y menos destructivos para el medio ambiente. Las industrias vienen trabajando para cumplir esta misión desarrollando el concepto de la fábrica inteligente. El mundo agrícola debiera seguir el liderazgo de la industria y diseñar enfoques con los cuales implementar el concepto de la granja inteligente. Uno de los elementos más vitales a los que se debe configurar para satisfacer los requisitos de las nuevas granjas inteligentes, son los vehículos terrestres no tripulados (UGV)”.

Sistemas de votación automatizados en Estonia

Sistemas de votación automatizados en Estonia

Desde 2005, Estonia permite el voto electrónico, en donde los ciudadanos pueden emitir su sufragio en línea. En cada elección sucesiva, los votantes eligieron cada vez más sufragar en línea para ahorrar tiempo y participar en las elecciones nacionales y locales con facilidad. Ellos usan una ID digital que ayuda a verificar su identificación y prevenir el fraude; los sufragios emitidos en línea se cruzan automáticamente con los padrones para asegurar así que no haya ninguna duplicación o fraude de votantes.

Minería automatizada en África del Sur

Minería automatizada en África del Sur

“Los crecientes costos de mano de obra y energía están presionando el desempeño financiero de la minas de oro de África del Sur, pero la solución podría yacer en la adopción de tecnologías digitales. Al implementar operadores automatizados se puede poner fuera de peligro a los trabajadores subterráneos, lo que habrá de ser un imperativo cada vez mayor si se quiere que el capital internacional siga invirtiendo en los mineros de oro. Este énfasis creciente en la seguridad de la fuerza laboral y de las minas está motivando el desarrollo del mercado minero automatizado. Las técnicas anteriores y más viejas de exploración y perforación comprometían la seguridad de la fuerza laboral de las minas. Estos ejemplos han obligado a los operarios a diseñar resoluciones y herramientas inteligentes para así confirmar la seguridad de los trabajadores”.

Procesamiento automatizado de casos civiles no impugnados para reducir los casos acumulados en los juzgados de Azerbaiyán, estudio de caso 14

Procesamiento automatizado de casos civiles no impugnados para reducir los casos acumulados en los juzgados de Azerbaiyán, estudio de caso 14

“En Azerbaiyán, el gobierno diseñó un nuevo enfoque con el cual abordar sus propios casos acumulados, uno que abordaba elementos tanto del lado de la oferta como de la demanda. Advirtiendo que gran parte de lo acumulado se debía a simples casos civiles, como las demandas por cuentas impagas, el gobierno se asoció con el sector privado en el uso de un sistema automatizado para optimizar el manejo de los casos no impugnados, dejando así libre el tiempo de los jueces para los casos más importantes”.

Reformando el reclutamiento del Servicio Civil en Indonesia con exámenes computarizados, estudio de caso 6

Reformando el reclutamiento del Servicio Civil en Indonesia con exámenes computarizados, estudio de caso 6

“En Indonesia, la Agencia del Servicio Civil (BKN) logró introducir un sistema de evaluación asistido por computadoras (CAT), para así alterar el viejo sistema previo de pruebas manuales, el cual creaba oportunidades desenfrenadas para la corrupción en el reclutamiento del servicio civil por parte de los funcionarios del ministerio. Ahora la base de datos de preguntas se encuentra bien controlada y los resultados se publican en tiempo real fuera del centro de evaluaciones. Desde su lanzamiento en 2013, el CAT se ha convertido en el estándar de facto para más de 62 ministerios y agencias”.

Automatización en tiempo real de la agricultura de la India

Automatización en tiempo real de la agricultura de la India

“La “automatización en tiempo real del sistema agrario de la india” usando microcontroladores AVR (Advanced Virtual RISC y GSM (Global System for Mobile), está concentrado en hacer que el proceso agrícola sea más fácil con la ayuda de la automatización. La configuración consta de un procesador que es un microcontrolador de 8 bits. GSM tiene una parte importante al controlar el riego en el campo. Se le usa para recibir y enviar al agricultor los datos recogidos por los sensores. GSM actúa como puente conector entre el microcontrolador AVR y el granjero. Nuestro estudio busca implementar la aplicación básica de la automatización del riego en el campo programando los componentes y construyendo el hardware necesario. En nuestro estudio se usaron distintos tipos de sensores como LM35, un sensor de humedad del aire, otro de la humedad del suelo y un sensor IR usado para encontrar la condición precisa del campo. Se usa GSM para informarle al agricultor el estado exacto del campo, de modo tal que [pueda] tomar las medidas necesarias. Se usan comandos de AT(Atención) para controlar funciones tales como la irrigación, el arado, el uso de las semillas y el efectuar otras actividades agrícolas”.

El voto electrónico llega a su fin en Kazajstán

Un estudio publicado en mayo de 2020 acerca del abandono del voto electrónico en Kazajstán, resalta algunos de los retos políticos que lo rodean. Kazajstán lo empleó entre 2004 y 2011, y fue considerado un ejemplo destacado. Véase “Kazakhstan: Voter registration Case Study (2006)” que fuera producido por la Ace Project Electoral Knowledge Network. Sin embargo, el país retornó a las cédulas de papel tradicionales debido a la falta de confianza que la ciudadanía y la sociedad civil tenían, en la capacidad del gobierno para asegurar la integridad de los procedimientos de votación electrónicos. Véase “Politicization of e-voting rejection: reflections from Kazakhstan,” de Maxat Kassen. Es importante señalar que Kazajstán no utilizó la votación biométrica, sino más bien máquinas de votación electrónicas que funcionaban mediante pantallas táctiles.

Inicio

Referencias

Recursos adicionales

Inicio

Categories

Protección de datos

¿Qué es la protección de datos?

La protección de datos se refiere a las prácticas, medidas y leyes que buscan prevenir que cierta información acerca de una persona sea recolectada, usada o compartida de modo tal que sea dañina para ella.

Entrevista con un pesador en Bone, Célebes Meridional, Indonesia. Los recolectores de datos deben recibir capacitación sobre cómo evitar los sesgos durante el proceso de recolección de datos. Crédito por la fotografía: Indah Rufiati/MDPI – cortesía de USAID Oceans.

La protección de datos no es nueva. Los actores malos siempre han buscado acceder a los registros privados de las personas. Antes de la era digital, la protección de datos significaba proteger los datos privados de una persona de que alguien accediera a ellos físicamente, los viera o tomara carpetas y documentos. Las leyes de protección de datos existen hace ya más de 40 años.

Ahora que muchos aspectos de la vida de las personas se han pasado en línea, la información privada, personal e identificable es compartida con regularidad con todo tipo de entidades privadas y públicas. La protección de datos busca asegurar que esta información sea recogida, almacenada y mantenida responsablemente y que las consecuencias involuntarias de su uso sean minimizadas o mitigadas.

¿Qué son los datos?

Con datos nos referimos a información digital como mensajes de texto, videos, clics, huellas dactilares digitales, un bitcoin, el historial de búsqueda y hasta los simples movimientos del cursor. Los datos pueden guardarse en computadoras, dispositivos móviles, en nubes y discos duros externos. Se les puede compartir por correo electrónico, apps de mensajería y herramientas de transferencia de archivos. Sus publicaciones, me gusta y retweets, sus videos de gatos y protestas, y todo lo que comparte en las redes sociales son datos.

Los metadatos son un subconjunto de los datos. Son información guardada dentro de un documento o archivo. Son una huella digital electrónica que contiene información acerca del documento o archivo. Usemos un correo electrónico como ejemplo. Si envía uno a su amigo, su texto son los datos. El correo mismo, sin embargo, contiene toda suerte de metadatos como quién lo creó, quién es el receptor, la dirección IP del autor, el tamaño del mensaje, etc.

Grandes cantidades de datos quedan combinados y guardados juntos. Estos grandes archivos contienen miles o millones de archivos individuales a los que se conoce como conjuntos de datos. Estos últimos son combinados a su vez en conjuntos de datos sumamente grandes. Y estos últimos, a los que se conoce como big data, se usan para entrenar a los sistemas de aprendizaje automático systems.

Datos personales e información personalmente identificable

Los datos pueden parecer sumamente abstractos, pero los pedazos de información a menudo reflejan bastante la identidad o los comportamientos de personas reales. No todos los datos necesitan ser protegidos, pero algunos de ellos, los metadatos inclusive, pueden revelar bastante acerca de una persona. A esto se conoce como Información Personal de Identificación (PII). A la PII usualmente se la conoce como datos personales. Es información que se puede usar para distinguir o rastrear la identidad de una persona como un nombre, el número de pasaporte o los datos biométricos como las huellas digitales y los patrones faciales. PII es también información vinculada a o vinculable con una persona, como su fecha de nacimiento y su religión.

Los datos personales pueden ser recolectados, analizados y compartidos para beneficio de las personas involucradas, pero también pueden usarse con fines dañinos. Ellos son valiosos para muchos actores públicos y privados. Por ejemplo, los recogen las plataformas de redes sociales y son vendidos a compañías de publicidad. Son recolectados por los gobiernos para servir a fines policiales, como perseguir el delito. Los políticos valoran los datos personales para enfocarse en votantes con cierta información política. Estos datos pueden ser monetizados por personas con intenciones criminales, como la venta de identidades falsas.

“Compartir datos es una práctica regular que está haciéndose cada vez más ubicua a medida que la sociedad pasa a estar en línea. Compartirlos no sólo trae beneficios a los usuarios, sino que además es a menudo necesario para cumplir labores administrativas o interactuar con la sociedad actual. Pero no está libre de riesgos. Su información personal revela bastante de usted mismo, sus pensamientos y su vida, que es la razón por la cual necesita ser protegida”.

Access Now’s ‘Creating a Data Protection Framework’, Noviembre de 2018.

¿Cómo se relaciona la protección de datos con el derecho a la privacidad?

El derecho a la protección de los datos personales está estrechamente interconectado con el derecho a la privacidad, pero es algo distinto. La comprensión de qué significa “privacidad” varía de un país a otro basado en su historia, cultura o influencias filosóficas. La protección de datos no siempre es considerada un derecho en sí mismo. Lea aquí más acerca de las diferencias existentes entre la privacidad y la protección de los datos.

La privacidad de los datos es también una forma común de hablar acerca de datos sensibles y la importancia de protegerlos de su compartición involuntaria, así como la recolección y uso indebido o ilegal de datos acerca de una persona o grupo. La estrategia digital de USAID para 2020 – 2024 la define como ‘el derecho de una persona o grupo a conservar el control sobre, y la confidencialidad de, la información de sí misma’.

¿Cómo funciona la protección de datos?

Participante en el programa WeMUNIZE de USAID en Nigeria. La protección de datos debe también ser considerada para conjuntos de datos existentes. Crédito de la fotografía: KC Nwakalor for USAID / Digital Development Communications

Los datos personales pueden y debieran ser resguardados con medidas que protejan la identidad u otra información acerca de una persona, y que respeten su derecho a la privacidad. Ejemplos de tales medidas incluyen el establecer qué datos son vulnerables sobre la base de evaluaciones de riesgo de la privacidad; no mantener datos sensibles en línea; limitan quién puede acceder a ciertos datos; anonimizar los datos sensibles; y sólo recoger los que sean necesarios.

Hay un par de principios y prácticas establecidos para proteger los datos sensibles. En muchos países, estas medidas son impuestas a través de leyes, las cuales contienen los principios claves que son importantes para garantizar la protección de los datos.

“Las leyes de protección de datos buscan proteger los del pueblo dando a las personas derechos sobre ellos, imponiendo normas sobre la forma en que las compañías y gobiernos los usan, y estableciendo reguladores que hacen cumplir las leyes”.

Privacy International sobre protección de datos

A continuación se esbozan un par de términos y principios importantes, que tienen como base el Reglamento General de Protección de Datos de la Unión Europea (GDPR).

  • Sujeto de los datos: toda persona cuyos datos personales estén siendo procesados, como ser añadidos a una base de datos de contactos o a una lista de correo de mensajes publicitarios.
  • Procesamiento de datos quiere decir toda operación realizada con datos personales, ya sea anual o automatizada.
  • Controlador de datos: el actor que determina los fines y medios para los cuales se procesan los datos personales.
  • Procesador de datos: el actor que procesa los datos personales a nombre del controlador; a menudo es un tercero externo a este último, como una parte que ofrece listas de correo o servicios de encuesta.
  • Consentimiento informado: las personas entienden y aceptan que sus datos personales serán recolectados, que se tenga acceso a ellos, se les use y/o comparta, y cómo pueden retirar su consentimiento.
  • Limitación de fines: los datos personales se recogen sólo para un uso específico y justificado, y las otras partes no pueden usarlos con otros fines.
  • Minimización de los datos: la recolección de datos es minimizada y queda limitada a los detalles esenciales.

 

Proveedor del cuidado de salud en Eswatini. Los datos de calidad y los conjuntos de datos protegidos pueden acelerar el impacto en el sector de la salud pública. Crédito de la fotografía: Ncamsile Maseko & Lindani Sifundza.

La guía de Access Now enumera ocho principios de protección de los datos que provienen mayormente de estándares internacionales, en particular de la Convención del Consejo de Europa para la para la Protección de las Personas, en relación con el Procesamiento Automático de Datos Personales (ampliamente conocida como la Convención 108), y de las Privacy Guidelines de la Organización para la Cooperación y el Desarrollo Económico (OCDE): los países que han ratificado los marcos internacionales de protección de datos consideran que son los “estándares mínimos” para la protección de los derechos fundamentales.

Un proyecto de desarrollo que use datos, ya sea mediante una lista de correo o analizando conjuntos de datos, debiera cumplir con las leyes que rigen su protección. De no haber un marco legal nacional, los principios, normas y estándares internacionales pueden servir de línea de base para alcanzar el mismo nivel de protección de los datos y las personas. El acatamiento de estos principios podría parecer molesto, pero implementar unos cuantos pasos relacionados con la protección de datos desde el inicio mismo del proyecto le ayudará a alcanzar los resultados deseados sin poner a la gente en riesgo.

common practices of civil society organizations relate to the terms and principles of the data protection framework of laws and norms

La figura anterior muestra de qué modo las prácticas comunes de las organizaciones de la sociedad civil se relacionan con los términos y principios del marco de las leyes y normas de la protección de datos.

El Reglamento General de Protección de Datos de la Unión Europea (GDPR)

El RGPD, la ley de protección de datos de la UE, entró en vigor en 2018. Se la suele considerar la ley de protección de datos más sólida del mundo. Ella busca mejorar la forma en que la gente puede acceder a su información y limita lo que las organizaciones pueden hacer con los datos personales de los ciudadanos de la UE. Aunque proviene de la UE, el RGPD puede aplicarse también a organizaciones con sede fuera de la región cuando concierne a los datos de sus ciudadanos. El RGPD tiene, por ende, un impacto global.

Las obligaciones derivadas del RGPD y de otras leyes de protección de datos podrían tener amplias implicaciones para las organizaciones de la sociedad civil. Para información acerca del proceso de cumplimiento del RGPD y otros recursos, véase la guía del European Center for Not-for-Profit Law sobre los estándares de la protección de datos para organizaciones de la sociedad civil.

A pesar de sus protecciones, el RGPD también ha sido usado para acosar a los CSO y a periodistas. Por ejemplo, una compañía minera usó una de sus disposiciones para intentar obligar a Global Witness a que revelara las fuentes que usó en una campaña antiminera. Global Witness resistió dichos intentos exitosamente.

Tácticas de protección personales u organizacionales

La forma en que proteja su propia información sensible o los datos de su organización dependerá de su situación específica en términos de sus actividades y entorno legal. El primer paso es evaluar sus necesidades específicas en función a la seguridad y la protección de datos. Por ejemplo, qué información, de caer en manos equivocadas, podría tener consecuencias negativas para usted y su organización?

Los especialistas en seguridad digital han preparado recursos en línea a los cuales puede usar para protegerse. Ejemplos de ello son Security Planner, una guía fácil de usar con consejos revisados por expertos para estar más seguro en línea, y con recomendaciones para implementar prácticas básicas en línea. El Digital Safety Manual ofrece información y consejos prácticos sobre cómo mejorar la seguridad digital de los funcionarios gubernamentales que trabajan con la sociedad civil y los Defensores de los Derechos Humanos (DDH). Este manual brinda 12 cartillas adaptadas a diversas actividades comunes en la colaboración entre gobiernos (y otros socios) y las organizaciones de la sociedad civil. La primera cartilla ayuda a evaluar la seguridad digital.

Manual de seguridad digital

 

Primeros auxilios digitales es un recurso gratuito para personal de respuesta rápida, capacitadores en seguridad digital y activistas expertos en tecnología para que protejan mejor, a sí mismos y a las comunidades a las que apoyan, de los tipos más comunes de emergencias digitales. Los respondedores y mentores de seguridad digital global pueden ayudar con preguntas específicas o con su mentoría, por ejemplo, e Digital Defenders Partnership y el Computer Incident Response Centre for Civil Society (CiviCERT).

Inicio

¿De qué modo es la protección de datos relevante en el espacio cívico y para la democracia?

Muchas iniciativas que buscan fortalecer el espacio cívico o mejorar la democracia emplean tecnología digital. Hay una difundida creencia en que el creciente volumen de datos y las herramientas para procesarlos pueden ser usados para el bien. Y en efecto, la integración de la tecnología digital y el uso de los datos en la democracia, los derechos humanos y la programación de la gobernanza puede tener beneficios significativos; pueden, por ejemplo, conectar a comunidades alrededor del mundo, llegar mejor a poblaciones carentes de servicios, y ayudar a mitigar la desigualdad.

“Dentro del trabajo del cambio social usualmente hay una cruda asimetría de poder. Desde el trabajo humanitario a hacer campañas, de documentar las violaciones de los derechos humanos a la construcción de movimientos, las organizaciones promotoras a menudo están lideradas por —y trabajan con— comunidades vulnerables o marginadas. Frecuentemente abordamos el trabajo del cambio social a través de un lente crítico, priorizando cómo mitigar las asimetrías de poder. Creemos en la necesidad de hacer lo mismo cuando se trata de los datos con los que trabajamos: cuestionarlos, entender sus limitaciones y aprender de ellos en formas responsables”.

¿Qué son los datos responsables?

Si la información de calidad está disponible para las personas correctas cuando la necesitan, los datos están protegidos contra el mal uso, y el proyecto está diseñado con la protección de datos en mente, entonces puede acelerar el impacto.

  • El financiamiento que USAID hiciera de una mejor inspección de los viñedos usando drones y datos de GIS en Moldova, permite a los agricultores inspeccionar, identificar y aislar rápidamente los viñedos infectados con una enfermedad fitoplasmática de la vid.
  • Círculo es una herramienta digital para mujeres periodistas en México que les ayuda a crear fuertes redes de apoyo, a fortalecer sus protocolos de seguridad y a satisfacer las necesidades relacionadas con la protección de sí mismas y sus datos. Fue diseñada con los usuarios finales a través de grupos de chat y talleres presenciales, para así asegurarse de que todo lo que fuese construido en la app sería algo que necesitan y en que pueden confiar.

Al mismo tiempo, el desarrollo impulsado por los datos trae consigo la nueva responsabilidad de prevenir su mal uso cuando se diseñan, implementan o monitorean los proyectos de desarrollo. Los problemas de privacidad y seguridad son sumamente reales cuando el uso de los datos personales es un medio con el cual identificar a las personas que son elegibles para los servicios humanitarios.

  • Los campamentos de refugiados en Jordania necesitaron que los miembros de la comunidad permitieran que se escanease su iris para comprar alimentos y provisiones, y retirar dinero de los ATM. Esta práctica no integró formas significativas de pedir el consentimiento o permitir a las personas excluirse. Además, el uso y recolección de datos personales sumamente sensibles como los biométricos, para permitir hábitos cotidianos de compra, es algo desproporcionado, pues en muchas partes del mundo se cuenta con y usa otras tecnologías digitales menos personales.

Los gobiernos, organizaciones internacionales y actores privados pueden todos hacer un mal uso —incluso involuntariamente— de los datos personales con otros fines de los deseados, afectando así de modo negativo al bienestar de las personas relacionados con ellos. Privacy International resaltó algunos ejemplos:

  • El caso de Tullow Oil, la compañía más grande de exploración y producción de petróleo y gas en África, muestra como un actor privado consideró efectuar una investigación, extensa y detallada, del comportamiento de las comunidades locales a través de una compañía de investigación microfocalizada, para así conseguir ‘estrategias cognitivas y emocionales con las cuales influir y modificar las actitudes y el comportamiento de los turkanas’ en beneficio de Tullow Oil.
  • En Ghana, el Ministerio de Salud encargó un gran estudio de las prácticas y requerimientos de la salud en el país. Esto tuvo como resultado una orden del partido político gobernante, para que se modelara la distribución futura de los votos dentro de cada circunscripción a partir de cómo era que los encuestados decían que votarían, y que hubiese una campaña negativa que intentara conseguir que los partidarios de la oposición no votaran.

Hay recursos y expertos disponibles para ayudar en este proceso. La página web The Principles for Digital Development ofrece recomendaciones, consejos y recursos para proteger la privacidad y la seguridad a través del ciclo de vida de un proyecto, como en la etapa de análisis y planificación, en el diseño y desarrollo de proyectos y en su aplicación e implementación. También se cubren la medición y la evaluación. La página web The Responsible Data ofrece el Hand-Book of the Modern Development Specialist ilustrado y con una guía atractiva y entendible a lo largo de todos los pasos de un proyecto de desarrollo movido por datos: su diseño y el manejo de los datos, con información específica acerca de su recolección, comprensión y compartir, y el cierre de un proyecto.

Trabajadora de ONG se prepara para la recolección de datos en Buru Maluku, Indonesia. Cuando se recogen nuevos datos es importante diseñar el proceso cuidadosamente y pensar cómo afecta a las personas involucradas. Crédito de la fotografía: Indah Rufiati/MDPI – cortesía de USAID Oceans.

Inicio

Oportunidades

Las medidas de protección de datos promueven la democracia, los derechos humanos y las cuestiones de gobernanza. Lea a continuación para aprender cómo pensar de modo más eficaz y seguro acerca de la protección de datos en su trabajo.

Privacidad respetada y la gente protegida

La implementación de patrones de protección de datos en los proyectos de desarrollo protege a las personas de posibles daños debidos al abuso de su información. El abuso tiene lugar cuando una persona, compañía o gobierno accede a los datos personales y los usa con otros fines fuera de aquellos para los cuales fueron recogidos. Los servicios de inteligencia y las agencias policiales a menudo cuentan con medios legales y técnicos para imponer el acceso a los conjuntos de datos y abusar de ellos. Personas contratadas por los gobiernos pueden acceder a los conjuntos de datos hackeando la seguridad del software o de las nubes. Esto a menudo lleva a la intimidación, el silenciamiento y el arresto de los defensores de los derechos humanos, y a que los líderes de la sociedad civil critiquen a su gobierno. Privacy International mapea ejemplos de gobiernos y actores privados que abusan de los datos de las personas.

Unas fuertes medidas protectoras contra el abuso de datos aseguran el respeto al derecho fundamental a la privacidad de las personas cuyos datos fueron recogidos y usados. Las medidas protectoras permiten un desarrollo positivo como la mejora de las estadísticas oficiales, un mejor suministro de servicios, mecanismos de advertencia temprana focalizados, y una respuesta eficaz a los desastres.

Es importante establecer cómo es que los datos son protegidos a lo largo de todo el ciclo de vida de un proyecto. También debiera asegurarse a las personas la protección una vez terminado el proyecto, ya sea abruptamente o según estaba planeado, cuando el proyecto pasa a una fase distinta o cuando recibe financiamiento de distintas fuentes. Oxfam ha preparado un
folleto para ayudar a cualquiera que maneje, comparta o acceda a datos de programa, para que considere debidamente las cuestiones de los datos a lo largo de todo su ciclo de vida, desde preparar un plan a desecharlos.

Inicio

Riesgos

La recolección y el uso de datos puede también crear riesgos en la programación de la sociedad civil. Lea a continuación cómo discernir los posibles peligros asociados con la recolección y el uso de datos en el trabajo DRG, así como el modo de mitigar las consecuencias involuntarias y voluntarias.

Acceso no autorizado a los datos

Los datos necesitan estar guardados en algún lugar, en una computadora o en un disco externo, en una nube o en un servidor local. Dondequiera que se guarden los datos, se deben tomar precauciones para protegerlos de accesos no autorizados, y para evitar revelar la identidad de personas vulnerables. El nivel de protección necesario depende de cuán sensibles sean, esto es en qué medida podría haber consecuencias negativas si la información cae en manos equivocadas.

Los datos pueden guardarse en un servidor cercano y bien protegido, que está conectado con drives con una fuerte encriptación y acceso muy limitado, que es un método para mantener el control de los datos que posee. Los servicios en la nube ofrecidos por compañías tecnológicas bien conocidas, a menudo ofrecen medidas de protección básica y un amplio acceso al conjunto de datos en las versiones gratuitas. Las características de seguridad más avanzadas están disponibles para los clientes que pagan, como el almacenaje de datos en ciertas jurisdicciones que cuentan con leyes que los protegen. Los lineamientos de cómo asegurar los datos privados guardados y a los que se accede en las nubes, ayuda a entender diversos aspectos de éstas y a decidir en situaciones específicas.

Todo sistema necesita ser asegurado de ciberataques y manipulación. Un desafío común es encontrar una forma de proteger las identidades del conjunto de datos, por ejemplo retirando toda la información que podría identificar a personas a partir de los datos, esto es anonimizándolos. La anonimización correcta es de crucial importancia y algo más difícil de lo que a menudo se asume.

Podemos imaginar que un conjunto de datos de la ubicación con GPS de las Personas que Viven con Albinismo en Uganda requiere de una vigorosa protección La persecución tiene como base la creencia en que ciertas partes del cuerpo de las personas albinas pueden transmitir poderes mágicos, o se presume que están malditas y que traen mala suerte. Un proyecto de perfilamiento espacial que mapease la ubicación exacta de las personas pertenecientes a este grupo vulnerable podría mejorar el alcance y suministro de los servicios que se les presta. Sin embargo, el hackeo de las bases de datos o algún otro acceso ilegal a sus datos personales podría ponerles en riesgo ante las personas que quieren explotarles o hacerles daño.

Podríamos también imaginar que quienes operan un sistema alternativo para enviar alertas por ataques aéreos en Siria, corren el riesgo de que las autoridades los pongan en la mira. Si bien la recolección y el compartir de los datos por parte de este grupo busca prevenir muertes y lesiones, disminuye también el impacto de los ataques aéreos de las autoridades sirias. Los datos de la ubicación de las personas que manejan y contribuyen al sistema deben protegerse del acceso o la exposición.

Otro riesgo es que los actores privados que manejan o cooperan en proyectos movidos por datos se vean tentados a venderlos de ofrecérseles grandes sumas de dinero. Estos compradores serían compañías de publicidad o políticos que buscan dirigir campañas comerciales o políticas a personas específicas.

El sistema Tiko, diseñado por la empresa social Triggerise, premia a los jóvenes sus comportamientos positivos en busca de salud, como visitar farmacias y buscar información en línea. El sistema recoge y guarda, entre otras cosas, información personal sensible y de salud de jóvenes suscriptoras, las que usan la plataforma en busca de guía sobre anticonceptivos y abortos seguros, y rastrea sus visitas a las clínicas locales. De no estar protegidos estos datos, los gobiernos que han criminalizado el aborto podrían potencialmente acceder a ellos y usarlos para llevar a cabo acciones policiales contra mujeres embarazadas y proveedores médicos.

Recolección insegura de datos

Cuando se está planeando recoger nuevos datos, es importante diseñar cuidadosamente el proceso de recolección y pensar bien cómo es que afecta a las personas involucradas. Debiera estar claro desde el principio qué tipos de datos serán recogidos, para qué fin, y que las personas involucradas estén de acuerdo. Por ejemplo, el esfuerzo por mapear a personas con discapacidades en una ciudad específica puede mejorar los servicios. Sin embargo, la base de datos no debiera exponerlas a riesgos tales como los ataques o la estigmatización, que podrían concentrarse en hogares específicos. Además, el establecimiento de esta base de datos debería responder a las necesidades de las personas involucradas, y no al simple deseo de usarlos. Para mayores directrices consúltese el capítulo de Getting Data (Consiguiendo los datos) del Hand-book of the Modern Development Specialist (Manual del especialista moderno del desarrollo) y la OHCHR Guidance para adoptar un Enfoque de los Datos Basado en los Derechos Humanos, que se concentre en la recolección y la desagregación.

Cuando los datos son recogidos personalmente por personas reclutadas para este proceso se requiere una capacitación apropiada. Ellos deben ser capaces de crear un espacio seguro para conseguir el consentimiento informado de las personas cuyos datos están siendo recogidos, y saber cómo evitar los sesgos durante el proceso de recolección.

Incógnitas en los conjuntos de datos existentes

Las iniciativas movidas por datos pueden o bien recoger nueva información, por ejemplo mediante un encuesta de alumnos y profesores en un colegio, o sino usar conjuntos de datos ya existentes a partir de fuentes secundarias, por ejemplo empleando un censo gubernamental o raspando las fuentes de las redes sociales. La protección de datos debe también considerarse cuando planee usar los conjuntos de datos ya existentes, como las imágenes de la tierra para el mapeo espacial. Debe analizar qué tipos de datos quiere usar, y si es necesario usar para ello un conjunto de datos específico. En el caso de los conjuntos de datos provenientes de terceros, es importante saber cómo se obtuvo los que desea usar, si se respetaron los principios de la protección de datos durante la fase de recolección, quién los licenció y quién financió el proceso. De no lograr conseguir estas información deberá considerar cuidadosamente si usarlos o no. Véase el Hand-book del especialista moderno del desarrollo acerca del trabajo con los datos ya existentes.

Beneficios del almacenaje en la nube

Una confiable estrategia de almacenaje en la nube ofrece una mayor seguridad y facilidad de implementación, en comparación con proteger su propio servidor. Si bien un adversario decidido puede siempre hackear computadoras individuales o servidores locales, para ellos es un reto significativamente mayor violar las robustas defensas de proveedores reputados de almacenaje en la nube como Google o Microsoft. Estas compañías aplican extensos recursos de seguridad y tienen un fuerte incentivo empresarial para asegurar la máxima protección a sus usuarios. Al confiar en el almacenaje en la nube, los riesgos comunes como el robo físico, los daños a los dispositivos o el malware pueden mitigarse, puesto que la mayoría de los documentos y datos están guardados de forma segura en la nube. En caso de incidentes es conveniente volver a sincronizar y resumir las operaciones en una computadora nueva o limpiada, con poca o nada de información valiosa accesible localmente.

Haciendo una copia de seguridad de los datos

Tener una copia de respaldo es crucial, independientemente de si los datos están guardados en dispositivos físicos o en la nube. Los primeros corren el riesgo de perder datos debido a diversos incidentes como daños en el hardware, ataques de ransomware o robos. El almacenaje en la nube proporciona una ventaja en este sentido, puesto que elimina la dependencia de dispositivos específicos que pueden quedar comprometidos o perderse. Las soluciones de backup integradas como Time Machine para Macs y File History para Windows, así como los backups automáticos en la nube de iPhones y Androids, ofrecen cierto nivel de protección. Sin embargo, el riesgo del error humano permanece incluso con el almacenaje en la nube, lo que hace que sea aconsejable considerar soluciones adicionales de backup en la nube como Backupify o SpinOne Backup. Los backups de seguridad son aún más importantes en el caso de las organizaciones que usan servidores y dispositivos locales. Se recomienda encriptar los discos duros externos usando contraseñas fuertes, empleando herramientas de encriptación como VeraCrypt o BitLocker, y mantener los dispositivos de respaldo en un lugar distinto que los dispositivos primarios. Guardar una copia en un lugar sumamente seguro, como en una caja fuerte, puede brindar una capa extra de protección en caso de desastres que afecten tanto a las computadoras como a sus copias de respaldo.

Inicio

Preguntas

Hágase estas preguntas si está intentando entender las implicaciones que tiene el no contar con medidas de protección de los datos en su entorno laboral, o si está considerando usarlos como parte de su programación de DRG:

  1. ¿Se han adoptado leyes de protección de los datos en el país o países en cuestión? ¿Estas leyes están alineadas con el derecho internacional de los derechos humanos, e incluyen disposiciones que protejan al derecho a la privacidad?
  2. ¿Cómo cumplirá el uso de los datos en su proyecto con los patrones de protección y privacidad de datos?
  3. ¿Qué tipos de datos planea usar? ¿Son personales o está involucrado algún otro dato sensible?
  4. ¿Qué podría suceder a las personas relacionadas con los datos si el gobierno accediera a éstos?
  5. ¿Qué podría suceder si los datos fuesen vendidos a un actor privado para otros fines de los planeados?
  6. ¿Qué medidas de precaución y mitigación se tomaron para proteger los datos y a las personas relacionadas con ellos?
  7. ¿Cómo se protege a los datos de la manipulación y el acceso y mal uso por parte de terceros?
  8. ¿Contará con suficientes conocimientos integrados durante todo el proyecto para asegurar que los datos sean bien manejados?
  9. Si planea recolectar datos, ¿cuál será su finalidad? ¿Su recolección es necesaria para alcanzar dicho fin?
  10. ¿Cómo se entrena a los recolectores de datos personales? ¿Cómo se genera el consentimiento informado a la hora de recogerse los datos?
  11. De estar creando bases de datos, ¿cómo se garantiza el anonimato de las personas relacionadas con ellos?
  12. ¿Cómo se consiguen y guardan los datos que planea usar? ¿El nivel de protección es apropiado a su sensibilidad?
  13. ¿Quién tiene acceso a los datos? ¿Qué medidas se toman para garantizar que se acceda a ellos para el objetivo planificado?
  14. ¿Qué otras entidades —compañías, socios— procesarán, analizarán, visualizarán y usarán de algún otro modo los datos de su proyecto? ¿Qué medidas se han tomado para protegerlos? ¿Se han establecido acuerdos con ellos para evitar su monetización o mal uso?
  15. ¿De construir una plataforma, ¿cómo protegerá a sus usuarios registrados?
  16. ¿La base de datos, el sistema de su almacenaje o la plataforma son auditables por investigadores independientes?

Inicio

Estudios de caso

People Living with HIV Stigma Index and Implementation Brief

El People Living with HIV Stigma Index (Índice de estigma y discriminación en personas con VIH) es un cuestionario y estrategia de muestreo estandarizados, para recoger datos cruciales acerca de los estigmas intersecados y la discriminación que afectan a las personas que viven con VIH. Éste monitorea el estigma y la discriminación relacionados con el VIH en diversos países y presenta evidencias para su defensa en ellos. Los datos de este proyecto son las experiencias de personas que viven con VIH. El implementation brief (Breviario de implementación) muestra medidas de protección de datos. Quienes viven con VIH se encuentran al centro de todo el proceso, vinculando continuamente a los datos que se recogen acerca de ellos con las personas mismas, comenzando con el diseño de la investigación y pasando a la implementación y al uso de los hallazgos para prestarles apoyo. Los datos se recogen mediante un proceso de entrevistas de par a par, con las personas que viven con VIH de diversos antecedentes sirviendo como entrevistadores capacitados. Se ha diseñado una metodología estándar de implementación, que incluye el establecimiento de un comité de conducción con partes interesadas claves y grupos de población.

La protección de datos del Love Matters Program de RNW Media

El Love Matters Program de RNW Media ofrece plataformas en línea para fomentar la discusión y compartir información sobre el amor, el sexo y las relaciones con personas de 18 a 30 años, en áreas en donde la información sobre la salud y derechos sexuales y reproductivos (SDSR) sigue censurada o es tabú. Los equipos digitales de RNW Media introdujeron enfoques creativos al procesamiento y análisis de los datos, metodologías de Social Listening y técnicas de procesamiento de lenguajes naturales para hacer más inclusivas a las plataformas, crear contenidos focalizados e identificar a influencers y trending topics. Los gobiernos han impuesto restricciones tales como tasas de licencia o registros para influencers en línea, como una forma de monitorear y bloquear contenidos “indeseables”, y RNW Media ha invertido en la seguridad de sus plataformas y los conocimientos de los usuarios para protegerlos del acceso a su información personal sensible. Lea más en la publicación ‘33 Showcases – Digitalisation and Development – Inspiration from Dutch development cooperation’ (33 Vitrinas – Digitalización y desarrollo – Inspiración de la cooperación holandesa para el desarrollo), Ministerio de Asuntos Exteriores de Holanda, 2019, p 12-14.

Informe de Amnistía Internacional

Informe de Amnistía Internacional

Cada día, miles de activistas y organizaciones por la democracia y los derechos humanos dependen de canales de comunicación seguros para conservar la confidencialidad de sus conversaciones en entornos políticos difíciles. Sin semejantes prácticas de seguridad, los mensajes sensibles pueden ser interceptados y usados por las autoridades para poner la mira en los activistas y disolver las protestas. Un ejemplo prominente y detallado de esto tuvo lugar luego de las elecciones de 2010 en Bielorrusia. Tal como se detalla en este informe de Amnistía Internacional, las grabaciones telefónicas y otras comunicaciones no encriptadas fueron interceptadas por el gobierno y usadas en los tribunales contra prominentes políticos y activistas opositores, muchos de los cuales pasaron años en prisión. En 2020, otra oleada de protestas postelectorales en Bielorrusia vio a miles de manifestantes adoptando apps de mensajería seguras y amistosas para con los usuarios —que no eran fácilmente disponibles 10 años antes— para proteger sus comunicaciones sensibles.

Datos del parlamento noruego

Datos del parlamento noruego

El Storting, el parlamento noruego, ha experimentado otro ciberataque que involucró el uso de vulnerabilidades recién descubiertas en Microsoft Exchange. Estas vulnerabilidades, a las que se conoce como ProxyLogon, fueron enfrentadas con parches de seguridad de emergencia lanzados por Microsoft. Los ataques iniciales fueron atribuidos a un grupo de hackeo chino bajo auspicio estatal llamado HAFNIUM, que utilizó las vulnerabilidades para comprometer los servidores, establecer web shells de puerta trasera y conseguir acceso no autorizado a las redes internas de diversas organizaciones. Los repetidos ciberataques al Storting y la participación de diversos grupos de hackers subrayan la importancia de la protección de datos, las actualizaciones de seguridad oportunas y medidas proactivas para mitigar los riesgos informáticos. Las organizaciones deben permanecer vigilantes, mantenerse informadas de las últimas vulnerabilidades y tomar las medidas apropiadas para resguardar sus sistemas y datos.

Girl Effect

Girl Effect, una organización creativa sin fines de lucro, que opera en lugares donde las muchachas están marginadas y son vulnerables, usa los medios y la tecnología móvil para empoderarlas. La organización emplea las herramientas e intervenciones digitales, y reconoce que toda organización que use datos tiene también la responsabilidad de proteger a la gente con la que habla o con la que se conecta en línea. Su ‘Digital safeguarding tips and guidance’ (Consejos y guía de protección digital) brinda una guía a profundidad sobre la implementación de medidas para la protección de datos cuando se trabaja con personas vulnerables. Oxfam, que menciona a Girl Effect como inspiración, ha desarrollado e implementado una Política de datos responsable y comparte muchos recursos en línea de respaldo. La publicación ‘Privacy and data security under GDPR for quantitative impact evaluation’ (Privacidad y seguridad de los datos bajo el RGPD para una evaluación de impacto cuantitativa) brinda detalladas consideraciones acerca de las medidas de protección de los datos que Oxfam implementa, cuando efectúa una evaluación de impacto cuantitativo mediante encuestas y entrevistas digitales y en papel.

Inicio

Referencias

A continuación aparecen los trabajos citados en este recurso.

Recursos adicionales

Inicio

Categories

Realidad Extendida / Realidad Aumentada / Realidad Virtual (RE/AR/VR)

¿Qué es la realidad extendida (RE)?

La Realidad Extendida (RE) es un término colectivo que comprende la Realidad Aumentada (RA) y la Realidad Virtual (RV), tecnologías que transforman nuestra interacción con el mundo ya sea ampliándola, ya reimaginando por completo nuestra percepción de la realidad.

Usando avances en los gráficos de computadora, sensores, cámaras y pantallas, la RE crea experiencias inmersivas que van de la superposición de información digital a nuestro entorno físico en la RA, a hacer que los usuarios se sumerjan en entornos íntegramente digitales en la RV. La RE representa un cambio significativo en la forma en que interactuamos con y percibimos a los contenidos digitales, y ofrece interfaces intuitivas y naturales para una amplia gama de aplicaciones en diversos sectores, entre ellos la democracia, los derechos humanos y la gobernanza.

¿Qué es la realidad virtual (RV)?

La Realidad Virtual (RV) es una tecnología que sumerge a los usuarios en un entorno tridimensional (3D) simulado, lo que les permite interactuar con éste en un modo que simula las experiencias en el mundo real, involucrando a sentidos como la vista, el oído y el tacto. A diferencia de las interfaces tradicionales, la RV coloca al usuario dentro de una experiencia. En lugar de ver una pantalla delante de ellos, los usuarios se sumergen y pueden interactuar con mundos en 3D.

La RV usa un casco especializado al que se conoce como casco de realidad virtual (HMD), con el que se crea un mundo en 3D generado por computadora que abarca íntegramente la visión y el oído. Esta tecnología inmersiva no solo visualiza, sino que además permite la interacción mediante controladores manuales. Estos controladores brindan una retroalimentación háptica, un característica que simula el sentido del tacto, mejorando así el realismo de la experiencia virtual. La aplicación más notable de la RV son los juegos inmersivos, que permiten a los jugadores interactuar plenamente en unos complejos mundos de fantasía.

¿Qué es la Realidad Aumentada (RA)

La Realidad Aumentada (RA) es una tecnología que superpone información y objetos digitales al mundo real, mejorando así lo que vemos, oímos y sentimos. Se la puede usar, por ejemplo, como una aplicación turística para ayudar a un usuario a abrirse camino en una ciudad no conocida e identificar restaurantes, hoteles y atracciones. En lugar de sumergir al usuario en un mundo virtual imaginario o lejano, se mejora al mundo físico aumentándolo en tiempo real con información y entidades digitales.

La RA se hizo ampliamente popular en 2016 con el juego Pokémon Go, en donde los jugadores encontraban personajes virtuales en lugares reales, y Snapchat, en donde se agregan juguetones filtros al rostro de los usuarios, como anteojos chistosos. La RA se usa también en aplicaciones más prácticas como asistiendo en cirugías, mejorando las pantallas de los autos y visualizando muebles en casa. Su fluida integración con el mundo real y su enfoque en mejorar la realidad antes que en reemplazarla, posiciona a la RA como una potencial figura clave en las futuras tecnologías de la web y el metaverso, reemplazando a las tradicionales interfaces de computadoras como las de teléfonos y escritorios, fusionando con precisión elementos reales y virtuales en tiempo real.

¿Qué es la Realidad Mixta (RM)

La Realidad Mixta (RM) es una tecnología que fusiona elementos del mundo real y digital. Ella combina elementos de la Realidad Virtual (RV), que crea un entorno íntegramente generado por computadora, con la Realidad Aumentada (RA), que superpone información digital al mundo real. En la RM, los usuarios pueden interactuar fluidamente tanto con objetos reales como virtuales en tiempo real. Los objetos digitales de la RM están diseñados para que respondan a condiciones del mundo real como la luz y el sonido, lo que hace que se vean más realistas y que parezcan estar más integrados a su entorno físico. A diferencia de la RV, la RM no reemplaza por completo al mundo real con otro digital; más bien mejora su experiencia en el primero agregando elementos digitales, brindando así una experiencia más interactiva e inmersiva.

La RM tiene diversas aplicaciones, como guiar a los cirujanos en procedimientos mínimamente invasivos usando imágenes y modelos interactivos en 3D a través de cascos de RM. Los dispositivos de RM son concebidos como herramientas versátiles listas para dar valor en múltiples ámbitos.

¿Qué es el metaverso?

El metaverso, un término acuñado originalmente en la novela “Snow Crash”, de 1992, es un mundo virtual inmersivo e interconectado, en donde la gente usa avatares para interactuar entre ellas y con otros entornos digitales a través de la internet. En él se fusionan los ámbitos físico y digital usando tecnologías de Realidad Extendida (RE) como la RA y la RV, creando así un espacio para diversas interacciones y construcción de comunidades. El metaverso, que fue comenzando a ganar impulso gracias a los avances en la tecnología y a las inversiones realizadas por grandes compañías, ofrece una plataforma que refleja las experiencias en el mundo real en un entorno digitalmente remozado, y que permite la conexión simultánea de numerosos usuarios.

El metaverso y cómo aprovecha la RE. Se le puede construir usando tecnología de RV para crear un metaverso virtual, y usar tecnología de RA para crear un metaverso aumentado. (Figura adaptada de Ahmed et al., 2023)

Un metaverso puede cubrir el espectro de la virtualidad e incorporar un “metaverso virtual” o uno “aumentado”, tal como vemos arriba. Las características de esta tecnología varían desde el uso de avatares dentro de ámbitos virtuales, al empleo de teléfonos inteligentes para acceder a entornos del metaverso, o a usar gafas de RA que superponen visuales generados por computadora a la realidad, o bien a experimentar escenarios de RM que fusionan perfectamente elementos tanto del ámbito físico como del virtual.

El espectro que va de la realidad a la virtualidad [Milgram y Kishino (1994) continuo.]
Figura adaptada de “Reality Media” (Fuente: Bolter, Engberg, & MacIntyre, 2021)

La figura anterior ilustra un especto que va desde el entorno real (el mundo físico) a un extremo, a otro íntegramente virtual (RV). La realidad aumentada (RA) y la virtualidad aumentada (VA) caen en medio; la RM muestra mayormente el mundo físico remozado con elementos digitales, y la VA es generada mayormente por computadora pero incluye algunos elementos del mundo real. La realidad mixta (RM) es un término para cualquier combinación de los mundos físico y virtual a lo largo de este espectro.

Inicio

¿De qué modo son la RA/RV relevantes en el espacio cívico y para la democracia?

El potencial de la RA/RV sobresale en el paisaje rápidamente en evolución de la tecnología, en particular su relevancia para la democracia, los derechos humanos y la gobernanza (DRG). Estas tecnologías no son solo conceptos futuristas, son herramientas que pueden reconfigurar el cómo interactuamos con el mundo y entre nosotros, haciendo así que sean vitales para la comunidad DRG.

En la vanguardia está el poder de RA/RV para transformar la participación democrática. Estas tecnologías pueden crear plataformas inmersivas e interactivas que llevarán al proceso democrático a la era digital. Imagine tomar parte en un municipio virtual desde la sala de su casa, debatiendo políticas con avatares de todo el mundo. No se trata sólo de conveniencia sino de mejorar el compromiso, haciendo que la participación en la gobernanza sea accesible para todos independientemente de las limitaciones geográficas o físicas.

Es más, las tecnologías de RA/RV ofrecen una oportunidad única para dar voz a las comunidades marginadas. Gracias a estas experiencias inmersivas, la gente puede conseguir una comprensión visceral de los retos que otros enfrentan, fomentando así la empatía y quebrando las barreras. Por ejemplo, las experiencias de RV que simulan la vida de alguien que vive en una zona de conflicto o que lucha con la pobreza, podrían ser herramientas poderosas en la defensa de los derechos humanos al hacer que los conceptos abstractos resulten algo concreto y urgente.

Otro aspecto significativo es la colaboración global facilitada por la RA/RV. Estas tecnologías permiten que los profesionales de DRG se conecten, compartan experiencias y aprendan mutuamente a través de las fronteras. Semejante colaboración es esencial en un mundo en donde los derechos humanos y los valores democráticos son cada vez más interdependientes entre sí. El intercambio global de ideas y de las mejores prácticas podría generar estrategias más robustas y resilientes en la promoción de la democracia y la gobernanza.

El potencial que la RA/RV tienen en la promoción y la conciencia es significativo. Los métodos tradicionales de generar conciencia en torno a las cuestiones de derechos humanos pueden ser complementados y mejorados con la naturaleza inmersiva de estas tecnologías. Ellas traen una nueva dimensión a la narración de historias, permitiendo a la gente experimentar en lugar de sólo observar. Esto podría cambiar las reglas del juego de la forma en que movilizamos el apoyo para las causas y educamos al público sobre las cuestiones cruciales.

Sin embargo, navegar por la frontera digital de la tecnología RA/RV requiere que tengamos un enfoque vigilante en lo que respecta a la privacidad de los datos, la seguridad y el acceso equitativo, reconociéndolos no sólo como retos técnicos sino también como problemas de los derechos humanos y la gobernanza ética.

La complejidad de controlar estas tecnologías requiere de la participación de los gobiernos y representantes electos para que aborden los riesgos sistémicos, fomenten la responsabilidad compartida y protejan a las poblaciones vulnerables. Esta gobernanza se extiende más allá de la supervisión gubernamental y necesita del compromiso de una amplia gama de partes interesadas, entre ellos expertos de la industria y la sociedad civil, para asegurar así un manejo justo e inclusivo. El debate en torno a los enfoques de gobernanza va desde promover la regulación gubernamental para proteger a la sociedad, hasta promover la autorregulación en pos de la innovación responsable. Un punto medio potencialmente efectivo es el de la corregulación, en donde los gobiernos, la industria y las partes interesadas relevantes colaboran para preparar normas e imponerlas. Esta estrategia equilibrada es crucial para asegurar el uso ético e impactante de la RA/RV en mejorar la participación democrática y defender los derechos humanos.

Inicio

Oportunidades

La RA/RV ofrecen una gama variada de aplicaciones en los ámbitos de la democracia, los derechos humanos y la gobernanza. La siguiente sección explora diversas oportunidades que la tecnología RA/RV trae al trabajo cívico y democrático.

Democracia aumentada

la democracia es bastante más que elecciones y gobernanza por parte de personas electas. Una democracia plenamente funcional está caracterizada por la participación ciudadana en el espacio público; una gobernanza participativa; libertad y oportunidades de expresión; acceso a la información; el proceso legal debido y la aplicación de la justicia; la protección de abusos de parte de los poderosos, etc. El físico chileno César Hidalgo, antes director del grupo de Collective Learning del MIT en el MIT Media Lab, ha trabajado en un ambicioso proyecto al que llama “Democracia aumentada.” Ésta confía en la idea de usar tecnologías como la RA/RV, junto con otras herramientas digitales, entre ellas la IA y los gemelos digitales, para expandir la capacidad de las personas de participar directamente en un gran volumen de decisiones democráticas. Los ciudadanos pueden ser representados en el mundo virtual por un gemelo digital, un avatar o un agente de software. Gracias a esta tecnología, los humanos pueden participar de modo más pleno en todas las cuestiones de políticas públicas, en una forma convenientemente ampliable de escala. Hidalgo sostiene que la democracia puede mejorarse y aumentarse usando la tecnología para automatizar varias de las tareas del gobierno, y que en el futuro los políticos y ciudadanos serán apoyados por algoritmos y equipos de especialistas, fomentando así una inteligencia colectiva que sirva al pueblo con mayor eficacia.

Gobernanza participativa

usando RA/RV se cuenta con mejores oportunidades para tomar parte en la gobernanza. Cuando se las usa conjuntamente con otras tecnologías como la IA, se hace factible una gobernanza participativa a escala en la cual la voz de los ciudadanos y sus representantes es incorporada a todas las decisiones referidas a las políticas y el bienestar públicos. Sin embargo, un “espacio público participativo” es apenas una posibilidad. Como veremos posteriormente en la sección Riesgos no podemos adscribir deterministamente resultados a la tecnología, puesto que la intención y el propósito de su empleo importa bastante. De no ejercerse el cuidado debido, el uso de la tecnología en los espacios públicos podría tener como resultado otros escenarios menos deseables, como la “realidad aumentada autocrática” o el “monopolio de las grandes tecnológicas” (Gudowsky et al.). Un metaverso bien estructurado podría posibilitar una mayor participación democrática y ofrecer a las ciudadanía nuevas formas de participar en los asuntos cívicos con la RA/VR, lo que llevaría a una gobernanza más inclusiva. Por ejemplo, las reuniones municipales virtuales, los debates y los foros comunales podrían reunir a gente de diverso origen, superando así las barreras geográficas y promoviendo las discusiones democráticas. La RA/RV podrían facilitar las protestas y demostraciones virtuales, brindando una plataforma segura para expresarse en regiones en donde las reuniones físicas podrían estar restringidas.

RA/RV en el cuidado de la salud

tal vez las aplicaciones más conocidas de la RA/RV en el espacio cívico se refieren a las industrias del cuidado de la salud y la educación. El beneficio que ambas tienen para el cuidado de la salud está bien establecido y ha sido replicado a través de múltiples estudios científicos. Hasta los escépticos, que usualmente dudan de los beneficios más amplios de la tecnología del metaverso/RA/RV, reconocen su probada efectividad en el cuidado de la salud, lo que ha sido señalado por expertos como Bolter et al. (2021) y Bailenson (2018). Estas tecnologías han mostrado su promesa en áreas tales como la terapéutica, la terapia mental, el apoyo emocional, y específicamente en la terapia de exposición para fobias y el manejo del estrés y la ansiedad. Ilustran esto García-Palacios et al. (2002), quienes demostraron el uso exitoso de la RV en el tratamiento de la fobia a las arañas mediante un estudio controlado, validando así aún más el potencial terapéutico de la tecnología.

RA/VR en la educación

además del cuidado de la salud, la educación y la capacitación brindan los casos de uso más convincentes de tecnologías inmersivas como la RA/VR. El valor primario de estas últimas es que proporcionan una experiencia inmersiva en primera persona única, que puede mejorar la percepción humana y educar o capacitar a los principiantes en el entorno relevante. De este modo con la RA/RV, la educación no es tanto leer sobre alguna situación o verla, sino más bien estar presente en ella. Semejante capacitación podría ser útil en una amplia variedad de campos. Por ejemplo, Boeing presentó los resultados de un estudio que sugiere que un entrenamiento efectuado a través de la RA permite a los trabajadores ser más productivos y ensamblar alas con mayor rapidez que cuando las instrucciones se dan usando métodos tradicionales. Esto también ha mostrado ser efectivo en la capacitación en diversidad, cuando la empatía puede ser generada mediante experiencias inmersivas.

Accesibilidad mejorada e inclusividad

la tecnología RA/RV permite crear entornos interactivos a los que se puede personalizar para satisfacer las necesidades de personas con diversas habilidades y discapacidades. Por ejemplo, los espacios públicos virtuales pueden ser adaptados para quienes tienen discapacidad visual concentrándose en otros sentidos, usando interfaces hápticas (basadas en el tacto) o audio para una participación aumentada. Las personas daltónicas pueden beneficiarse con un ‘modo daltónico’, que es una característica que ya está presente en muchas aplicaciones y juegos de RA/RV que adaptan los colores para hacerlos indistinguibles. Además, quienes necesitan métodos de comunicación alternativos pueden utilizar características de texto a voz, incluso eligiendo una voz única para su avatar digital. Yendo más allá de estas adaptaciones, las tecnologías de RA/RV pueden ayudar a promover la equidad en el centro de trabajo, al ofrecer a las personas con discapacidad física igual acceso a experiencias y oportunidades que podrían de otro modo serles inaccesibles, nivelando así el campo de juego en marcos tanto sociales como profesionales.

Generando empatía y conciencia

la RA/RV presenta una herramienta con una característica de usabilidad poderosa a través de la cual los usuarios pueden experimentar cómo es estar en los zapatos de otra persona. Semejante uso de mejoramiento de la perspectiva de la RA/RV podría usarse para incrementar la empatía y promover la conciencia de las circunstancias en que otros se encuentran. El experto en RV Jeremy Bailenson y su equipo en el Virtual Human Interaction Lab de Stanford, vienen trabajando en la RV para el cambio social, y han creado numerosas experiencias de RV en primera persona para resaltar problemas sociales como el racismo, el sexismo y otras formas de discriminación (véanse algunos ejemplos entre los Estudios de caso). En el futuro, uno podrá caminar la proverbial milla en los zapatos de otro usando tecnología en tiempo real, empleando comunicación inalámbrica vestible y de banda ancha usando RA/RV, generando así una mayor conciencia de las dificultades que otras personas enfrentan. Este uso de la RV puede ayudar a remover sesgos y a avanzar en cuestiones tales como la pobreza y la discriminación.

Comunidades virtuales inmersivas y sistemas de apoyo

las tecnologías de RA/RV ofrecen una forma única de empoderamiento para las comunidades marginadas, proporcionando un espacio virtual para la autoexpresión y la interacción autentica. Estas plataformas permiten a los usuarios crear avatares y entornos que realmente reflejan su identidad, libre de los constreñimientos sociales. Este equipo digital fomenta el desarrollo social y ofrece un espacio seguro a comunidades que a menudo están aisladas en el mundo físico. Al conectar a estas personas con redes más amplias, la RA/RV facilitan el acceso a recursos educativos y de apoyo que promueven el crecimiento individual y comunal. Además, la RA/RV sirven como un archivo digital de diversas culturas y tradiciones, lo que ayuda a la preservación y celebración de la diversidad cultural. Tal como se resalta en “Experience on Demand”, de Jeremy Bailenson, estas tecnologías también proporcionan beneficios terapéuticos y ofrecen apoyo emocional a quienes están afectados por traumas. A través de experiencias virtuales, las personas pueden volver a experimentar recuerdos queridos o visualizar futuros esperanzadores, subrayando así el papel de la tecnología en la curación emocional y el bienestar psicológico.

Activismo virtual

a diferencia de los medios tradicionales, la realidad virtual no brinda una simple experiencia mediada. Cuando está bien hecha, nos explica Jeremy Bailenson, es una experiencia real. La RV puede, por ende, ser un agente de un cambio conductual duradero, y puede involucrar y ser más persuasiva que otros tipos de medios tradicionales. Esto hace que la RA/RV sean idóneas para el activismo virtual, que busca producir cambios reales en la vida de comunidades marginadas. Por ejemplo, la RV ha sido usada por la UN Virtual Reality para dar un nuevo lente a la crisis de los migrantes ya existente, crear conciencia del create awareness around cambio climático y generar empatía humanitaria. Desarrollamos algunos ejemplos en los Estudio de caso.

Economía sostenible virtual

la RA/RV y el metaverso podrían hacer posible modelos económicos nuevos y más sostenibles. Los sistemas descentralizados como la tecnología de blockchain, pueden usarse para apoyar la propiedad digital de activos virtuales y empoderar a los desposeídos económicamente, y cuestionar las estructuras de poder centralizado tradicionales. Es más, dado que la RA/RV y el metaverso prometen ser la siguiente evolución de la Internet, que será más multi-sensorialmente inmersiva y estará equipada con presencias mutuas, las personas podrían entonces participar en diversas actividades y experiencias virtualmente, reduciendo la necesidad de los viajes e infraestructura físicos, lo que tendría como resultado una vida más económica y sostenible, reduciría las huellas de carbono y mitigaría el cambio climático.

Inicio

Riesgos

El uso de la RA/RV en el trabajo por la democracia, los derechos humanos y la gobernanza conlleva varios riesgos. Las siguientes secciones los explorarán con algo más de detenimiento. También presentarán estrategias con las cuales mitigarlos eficazmente.

Aplicaciones limitadas e inclusividad

Para que las tecnologías de RA/RV se empleen eficaz e inclusivamente en aplicaciones democráticas y de otro tipo, es esencial que superemos varios retos importantes. Estas tecnologías actualmente caen por debajo de lo deseado en áreas tales como la retroalimentación táctil avanzada, un apoyo amplio al lenguaje de señas, y una amplia accesibilidad para diversas discapacidades. Para que realmente tengan un impacto global, la RA/RV deben adaptarse a diversos métodos de comunicación, entre ellos los enfoques visual, verbal y táctil, y servir a una gama de lenguajes, desde los hablados a los de señas. Debieran también estar diseñadas para apoyar distintas habilidades cognitivas y la neurodiversidad, en consonancia con los principios establecidos por la IEEE Global Initiative on Ethics of Extended Reality. (Iniciativa global sobre ética en la realidad extendida de la IEEE). Hay una necesidad apremiante de que el contenido también esté localizado cultural y lingüísticamente, conjuntamente con el desarrollo de las habilidades relevantes, lo que hará que las aplicaciones de RA/RV sean más aplicables y beneficiosas en diversos contextos culturales y lingüísticos.

Es más, el acceso a las tecnologías de RA/RV y al más amplio ecosistema del metaverso y la RE depende crucialmente de una infraestructura digital avanzada, como una fuerte conectividad de internet, sistemas de computación de gran performance y equipos especializados. Como señalara Matthew Ball en su análisis de 2022, para que estas tecnologías sean ampliamente accesibles y capaces de proporcionar experiencias fluidas en tiempo real se necesitarán mejoras significativas en la eficiencia computacional, lo que es particularmente crucial en la RA para evitar demoras disruptivas. Si no se hace que estos avances sean asequibles, las aplicaciones de la RA/RV seguirán siendo limitadas.

La concentración de poder y los monopolios corporativos

El concepto del metaverso, tal como lo conciben los expertos de la industria, conlleva un enorme potencial para dar forma al futuro de la interacción y la experiencia humanas. Sin embargo, el control concentrado de este expansivo ámbito digital por parte de una sola corporación dominante genera una preocupación crítica con el equilibrio del poder y de la autoridad. En palabas de Matthew Ball (2022), la influencia del metaverso podría eclipsar la de los gobiernos, otorgando así una autoridad sin precedentes a la corporación que lo comande. Esta concentración de poder trae consigo temores sobre la responsabilidad, la supervisión y las posibles implicaciones para las libertades personales dentro de este ecosistema digital inmersivo.

Otro gran problema es la forma en que estas compañías reúnen y usan nuestros datos. Si bien pueden emplearlos para mejorar sus programas y hacer que las cosas sean mejores para nosotros, el World Bank (2021) advierte que la recolección de vastas cantidades de datos podría hacer que estas compañías consigan demasiado poder económico y político. Esto podría ser peligroso porque podrían utilizarlos de modos que hagan daño a los ciudadanos. Cuantos más se usen los datos una y otra vez, tantas más posibilidades hay de que sean mal utilizados. Los riesgos de violaciones a la privacidad, la vigilancia y la manipulación se incrementan sobre todo en situaciones caracterizadas por la concentración de poder, como en los regímenes autoritarios o los monopolios corporativos.

Violación de la privacidad con la vigilancia digital ampliada e intrusiva

El surgimiento de las tecnologías de RA/RV ha revolucionado las experiencias inmersivas, pero también plantea significativas preocupaciones con respecto a la privacidad debido a la extensa recolección de datos involucrada. Estos dispositivos recogen una amplia gama de datos personales, entre ellos información biométrica como la presión sanguínea, oximetría de pulso, huellas de voz, rasgos faciales e incluso detallados movimientos corporales. Este tipo de recolección de datos plantea riesgos específicos, en particular para los grupos vulnerables y marginados, puesto que va mucho más allá de una simple identificación. Los actuales marcos reguladores no están adecuadamente equipados para abordar estos problemas de privacidad en el medio en rápida evolución de la RE. Dicha situación subraya la apremiante necesidad de actualizar las regulaciones que pueden proteger la privacidad individual ante el avance de semejantes capacidades tecnológicas avanzadas.

Es más, las tecnologías de RA/RV traen consigo desafíos singulares bajo la forma de publicidad manipuladora y de una posible modificación conductual. Estos dispositivos pueden inferir los deseos más profundos de los usuarios empleando datos biométricos, lo que lleva a una publicidad sumamente focalizada y potencialmente invasiva que aprovecha las motivaciones subconscientes. Estas técnicas borran la frontera entre la privacidad personal y los intereses corporativos, lo que hace que sean necesarios unos robustos marcos de privacidad. Además el potencial de la RA/RV para influir en el comportamiento humano o manipularlo es una preocupación crucial. Como estas tecnologías pueden moldear nuestras percepciones y elecciones, es esencial involucrar diversas perspectivas en su diseño e imponer regulaciones proactivas para así prevenir impactos irreversibles en su infraestructura y modelos empresariales. Aún más, el impacto de la tecnología de RE se extiende a los transeúntes, quienes podrían ser grabados u observados, inconscientemente, en especial con la integración de tecnologías como el reconocimiento facial, planteando así más riesgos a la privacidad y la seguridad.

Consecuencias nocivas involuntarias de la RA/RV

Cuando se introduce la tecnología RA/RV a los programas relacionados con la democracia u otras iniciativas sociales, es de crucial importancia considerar las consecuencias más amplias, y a menudo involuntarias, que ellas podrían tener. La RA/RV ofrece experiencias inmersivas que pueden mejorar el aprendizaje y la participación, pero esta mismas cualidades también conllevan riesgos. Por ejemplo, mientras que la RV puede crear situaciones convincentes de escenarios en el mundo real, promoviendo así la empatía y la comprensión, también puede conducir a fenómenos como la “fatiga” o “resaca” de la RV. Los usuarios podrían experimentar una desconexión de la realidad y sentirse alienados de su entorno físico o de su propio cuerpo. Es más, la prevalencia de la “enfermedad de RV” semejante al mareo del viajero, provocada por discrepancias en los inputs sensoriales, podría tener como resultado malestar, náuseas o mareos, lo que le resta valor al impacto positivo deseado de estas tecnologías.

Otra preocupación significativa es el potencial para que la RA/RV moldee las percepciones y comportamientos de los usuarios en modos indeseables. La naturaleza inmersiva de dichas tecnologías podría intensificar los efectos de las burbujas de filtros y cámaras de eco, aislando a los usuarios dentro de esferas de información altamente personalizadas pero potencialmente distorsionadas. Este efecto podría exacerbar la fragmentación de la realidad compartida, impidiendo que se dé un discurso constructivo en contextos democráticos. Además, la fusión de las experiencias virtual y real podría borrar las líneas entre la información factual y las invenciones, haciendo que los usuarios sean así más susceptibles a la desinformación. Es más, el anonimato y el desapego percibidos en los entornos de RV podrían alentar un comportamiento antisocial, pues la gente podría participar en actos que evitaría en la vida real. También se corre el riesgo de que la empatía, que generalmente es una fuerza para bien, sea manipulada con fines divisivos o de explotación. De este modo, si bien la RA/RV tienen la gran promesa de mejorar los programas democráticos y sociales, estos posibles impactos negativos requieren una implementación cuidadosa guiada por la ética.

“Demasiado real para ser verdad”: el desencanto con la realidad y el efecto Pigmalión

En nuestra era de realidades aumentadas y virtuales, en que el escapismo digital a menudo parecería ser más atractivo que el mundo físico, nuestra comprensión compartida y la democracia corren el riesgo cada vez más grande de que la gente se retire a ámbitos virtuales (Turkle, 1996) (Bailenson, 2018). La naturaleza transformadora de la RA/RV introduce un concepto novedoso en el cual las personas podrían verse atraídos a mundos virtuales a costa de interactuar con su entorno físico (el cual ahora es considerado “demasiado real para ser bueno”). El uso de la RV por parte de poblaciones necesitadas y explotadas podría darles un alivio de la miseria de su experiencia vivida, pero al mismo tiempo disminuye también la probabilidad de que se resistan a dichas condiciones. Es más, a medida que la RA/RV avanzan y van quedando integradas con la IA avanzada en el metaverso, se da también el riesgo de que las fronteras entre los mundos virtual y real se borren. Los seres humanos tienden a antropomorfizar a las máquinas y bots que tienen algunas características humanísticas (v.g., los ojos o el lenguaje) y a tratarlos como humanos (Reeve & Nass, 1996). Podríamos tratar a la IA y a las entidades virtuales como si fueran humanas, lo que potencialmente generaría confusiones y retos en nuestras interacciones. Hay también severos riesgos asociados con el uso excesivo de experiencias inmersivas que tienen un alto grado de realismo de RV (Greengard, 2019). El experto en RV Denny Unger, CEO de Cloudhead Games, advierte que la inmersión extrema podría extenderse más allá del malestar y tener resultados aún más severos, entre ellos posibles ataques al corazón e incidentes fatales.

Descuido del yo y el entorno físicos

La observación que Jeremy Bailenson (2018) hiciera de que estar presente en la realidad virtual (RV) a menudo significa estar ausente en el mundo real, es un punto crucial para quienes están considerando usarla en la democracia y en otras tareas importantes. Cuando la gente se lanza dentro de la RV, puede quedar tan concentrada en el mundo virtual que pierde contacto con lo que está sucediendo a su alrededor en la vida real. En su libro “Experience on Demand”, Bailenson explica cómo esta profunda interacción con la RV podría hacer que los usuarios descuiden sus propias necesidades y entorno físicos. Esto es parecido a cómo la gente podría sentirse desconectada de sí misma y de su entorno en ciertas condiciones psicológicas. También está la preocupación de que las compañías de RV diseñen sus productos para que sean adictivos, haciendo que a los usuarios les resulte difícil desconectarse. Esto planea importantes preguntas acerca de los efectos que usar bastante la RV tiene a largo plazo, y resalta la necesidad de que se cuente con estrategias para prevenir estos problemas.

Seguridad y protección

La seguridad es una preocupación primaria en el ámbito de las tecnologías inmersivas. Hay una notable falta de comprensión del impacto de la realidad virtual RV (RV), sobre todo en usuarios jóvenes. Asegurar la seguridad emocional y física de los niños en entornos de RV requiere de directrices y medidas de seguridad bien definidas. Para proteger a los jóvenes usuarios se deberá balancear su naturaleza seductora con la conciencia del mundo real. La discusión acerca de las restricciones de edad y el uso responsable de la RV son cruciales en este paisaje tecnológico en rápido avance. Spiegel (2018) subraya la importancia que las restricciones de edad tienen para proteger a los jóvenes usuarios de los efectos potencialmente negativos de la exposición prolongada a la RV, y argumenta a favor de los beneficios de dichas limitaciones.

En otro frente, la ausencia de una fuerte verificación de identidad en los espacios virtuales hace que surjan preocupaciones por la usurpación de identidad y el mal uso de los avatares, lo que afectaría en particular a niños, quienes podrían ser víctimas de fraude o ser acusados erróneamente de delitos. La ausencia de una protección efectiva de la identidad incrementa la vulnerabilidad de los usuarios, resaltando así la necesidad de contar con medidas de seguridad avanzadas. Además la violencia virtual, como los incidentes reportados de acoso en los juegos de RV, constituyen un riesgo significativo. Estos no son problemas nuevos; por ejemplo, el artículo “A Rape in Cyberspace” de Julian Dibbell (1994), llamó la atención sobre la necesidad de prevenir los asaltos sexuales virtuales. Esto subraya la urgente necesidad de contar con políticas para enfrentar y prevenir el acoso y la violencia en la RV, asegurando así que estos espacios sean seguros e inclusivos para todos los usuarios.

Alineamiento con los valores y la búsqueda de significados

Al incorporar tecnologías de RA/RV a los programas, es de crucial importancia ser conscientes de su impacto significativo sobre la cultura y los valores. Tal como Neil Postman señaló, la tecnología invariablemente da forma a la cultura, creando a menudo una mezcla de ganadores y perdedores. Cada herramienta tecnológica porta sesgos inherentes, ya sean políticos, sociales o epistemológicos. Estos sesgos influyen sutilmente en nuestra vida diaria, a veces sin que estemos conscientemente alertas de ellos. De ahí que cuando se introduce la RA/RV a nuevos entornos, se debe considerar cómo es que estas tecnologías se alinean o entran en conflicto con los valores culturales locales. Tal como Nelson y Stolterman (2014) observan, la cultura es dinámica y está cogida entre la tradición y la innovación. Involucrar a la comunidad en el proceso de diseño podría mejorar la aceptación y efectividad de su proyecto.

En el contexto de la democracia, los derechos humanos y la gobernanza es esencial equilibrar los deseos individuales con el bien colectivo. La RA/RV pueden ofrecer cautivantes experiencias artificiales, pero tal como lo ilustra el experimento mental del filósofo Robert Nozick en su “Experience Machine” (2018), ellas no pueden reemplazar las complejidades y la autenticidad de las experiencias de la vida real La gente a menudo valora la realidad, la autenticidad y la libertad para hacer elecciones de vida por encima del placer artificial. Al aplicar la RA/RV, la meta debiera ser empoderar a las personas mejorando su participación en los procesos democráticos y enriqueciendo su vida, y no ofrecerles un mero escapismo. Las directrices éticas y unas prácticas responsables de diseño son claves para asegurar el uso escrupuloso de los entornos virtuales. Al conducir a los usuarios hacia experiencias más significativas y gratificantes, la RA/RV puede usarse para impactar en la sociedad de modo positivo, al mismo tiempo que se respeta y enriquece su tejido cultural.

Inicio

Preguntas

Si usted está intentando entender las implicaciones que la RA/RV tienen en su trabajo de DRG, debiera tener en cuenta las siguientes preguntas:

  1. ¿El uso de RA/RV mejora la participación humana en el mundo físico y en los problemas del mundo real, o acaso desconecta a la gente de este último? ¿La herramienta de RA/RV que está siendo diseñada creará espacios desfasados que alienarán a la gente de los demás y del mundo real? ¿Qué pasos se han tomado para evitar semejante aislamiento?
  2. ¿Puede este proyecto efectuarse en el mundo real y es realmente necesario en realidad virtual? ¿Ofrece algún beneficio por encima de hacer lo mismo en el mundo real? ¿Provoca algún daño en comparación con hacerlo en el mundo real?
  3. Al aplicar la tecnología de RA/RV, considere si ella no podría reforzar involuntariamente las desigualdades del mundo real. Reflexione acerca de las barreras digitales y económicas al acceso: ¿su aplicación es compatible con diversos dispositivos y redes, asegurando así una amplia accesibilidad? Cuídese de crear una “división en la realidad” en la cual los grupos marginados sean empujados hacia las alternativas virtuales, en tanto que otros gozan de las experiencias físicas. Siempre tenga en cuenta ofrecer opciones en el mundo real para los menos comprometidos con la RA/RV, promoviendo la inclusividad y una participación amplia.
  4. ¿Se han considerado las repercusiones que el uso de la tecnología de RA/RV tiene a nivel del sistema? Cuál será el efecto de la intervención en la comunidad y la sociedad en general? ¿Hay alguna posibilidad de que la tecnología propuesta tenga como resultado el problema de la adicción a ella? ¿Puede anticiparse alguna consecuencia involuntaria y mitigarse los riesgos negativos (como la adicción a la tecnología)?
  5. ¿Qué políticas y marcos reguladores se están siguiendo para asegurarse de que las tecnologías relacionadas con la RA/RV, o más en general con la RE y el metaverso, no violan los derechos humanos y contribuyen de modo positivo al desarrollo humano y a la democracia?
  6. ¿Se han tomado los pasos necesarios para incluir y promover la diversidad, la equidad y la inclusión, de modo tal que la tecnología sea apropiada para las necesidades y sensibilidades de distintos grupos? ¿Los diseñadores y desarrolladores de la RA/RV han tomado el input de los grupos subrepresentados y marginados, para así asegurar un diseño participativo e inclusivo?
  7. ¿Hay transparencia en el sistema con respecto a qué datos se recogen, con quién se comparten y cómo se usan? ¿La política de datos cumple con las mejores prácticas internacionales acerca de la protección de los consumidores y de los derechos humanos?
  8. ¿A los usuarios se les está dando una decisión y un control de usuario significativos sobre su privacidad, autonomía y acceso a su información y sus avatares en línea? ¿Qué medidas hay para limitar el acceso no autorizado a los datos que contienen información privada y sensible?
  9. De estarse monitoreando señales biométricas, o si se está usando información sensible como el seguimiento ocular, ¿qué pasos y marcos se siguieron para asegurarse de que el marco se emplee para fines que sean éticos y prosociales?
  10. ¿Hay transparencia en el sistema con respecto al uso de entidades de IA en el Espacio Virtual, de modo tal que en la aplicación de RA/RV no hay ninguna decepción o ambigüedad para con el usuario?
  11. ¿Qué pasos y marcos se siguieron para asegurar que toda modificación conductual o nudging efectuado por la tecnología sea conducido por la ética y la ley, y sea culturalmente sensible y prosocial? ¿La tecnología de RA/RV cumple con los principios de derechos humanos de la ONU aplicados a vigilancia de las comunicaciones y los negocios?
  12. Si la aplicación está pensada para que la usen niños, ¿se ha prestado la debida consideración a la protección de sus derechos?
  13. ¿La tecnología es culturalmente apropiada? ¿Qué efectos culturales son probables cuando esta tecnología sea adoptada? ¿La población local le dará la bienvenida a estos efectos, o acaso habrán de enfrentar oposición?

Inicio

Estudios de caso

La RA/RV pueden tener impactos positivos cuando se las usa para promover cuestiones de DRG. Lea a continuación para aprender cómo reflexionar acerca de su uso de modo más eficaz y seguro en su trabajo.

Campaña de acción de los Objetivos de Desarrollo Sostenible (ODS) de la ONU

A partir de enero de 2015, la Campaña de Acción de ODS de la ONU ha supervisado la United Nations Virtual Reality Series (UN VR) con miras a hacer que las cuestiones más apremiantes del mundo tengan eco entre los decisores de políticas y la gente de todo el mundo. Al empujar los límites de la empatía, esta iniciativa profundiza en las narrativas humanas que subyacen a las luchas por el desarrollo. A través de la UN VR Series, las personas que se encuentran en posiciones de efectuar cambios obtienen una percepción más profunda de las experiencias cotidianas de quienes están en riesgo de ser marginados, fomentando así una comprensión más profunda de sus circunstancias.

Ban Ki-moon, secretario general de la ONU, y Margaret Chan, directora ejecutiva de la OMS (c) David Gough. Crédito. UN VR: https://unvr.sdgactioncampaign.org/

Un reciente ejemplo de promoción y activismo en el uso de una narración inmersiva para informar a quienes toman las decisiones, tuvo lugar en abril de 2022, cuando el Departamento de Asuntos Políticos de las Naciones Unidas (DAP-NU), conjuntamente con el gobierno del Japón, lanzó la experiencia de VR “Sea of Islands” que lleva a los espectadores a las islas del Pacífico y les permite así ver las profundas ramificaciones que la crisis climática tiene en el área del Asia-Pacífico. A través de este medio la urgencia, magnitud y naturaleza crítica del cambio climático se hacen tangibles y accesibles.

Afiche de la película de RV Sea of Islands.
Fuente: https://media.un.org/en/asset/k1s/k1sbvxqll2

RV para democratizar el acceso a la educación

Las tecnologías de RA/RV guardan una gran promesa en el campo de la tecnología educativa (“edutec”) debido a sus inmensas capacidades, su aspecto atractivo y su potencial para democratizar el acceso y abordar cuestiones tales como el costo y la distancia (Dick, 2021a). La RA/RV pueden tener un papel crucial en facilitar la comprensión de conceptos abstractos y posibilitar una práctica directa dentro de entornos virtuales seguros, lo que beneficia en particular a los cursos de STEM, simulaciones médicas, artes y estudios de humanidades. Además, al incorporar enfoques de aprendizaje práctico y ludificado en diversas materias, estas tecnologías mejoran el desarrollo cognitivo y la participación en el salón. Otra ventaja es su capacidad para ofrecer experiencias de aprendizaje personalizadas que benefician a todos los alumnos, incluso a aquellos que tienen discapacidades cognitivas y de aprendizaje. Un caso ilustrativo es Floreo, que utiliza lecciones basadas en la RV para impartir habilidades sociales y básicas a jóvenes con un desorden en el espectro autista (TEA). El Fondo de las Naciones Unidas para la Infancia (UNICEF) cuenta con una serie de iniciativas dentro de su AR/VR for Good Initiative. (Iniciativa de RA/RV para el Bien). Un ejemplo de proyecto que busca usar la RV en el aula es Imisi 3D, una startup nigeriana fundada por Judith Okonkwo. La solución de Imisi 3D promete ofrecer herramientas para una educación de calidad a través de la RV, enriquecer la experiencia de aprendizaje de los niños, y hacer que la educación sea más accesible a más personas.

Fuente: UNICEF Nigeria/2019/Achirga

Enfocando a los refugiados y las víctimas de las guerras

Una serie de proyectos han recurrido a la RV para resaltar los problemas y la miseria de los refugiados y de quienes se ven afectados por la guerra. Clouds Over Sidra es uno de los primeros documentales de RV de la ONU, que fuera filmado en 2014 (y presentado en 2015). Se trata de la historia de Sidra, una muchacha de 12 años que vive en el campamento de refugiados de Zaʿatari desde el verano de 2013. La historia sigue a Sidra por el campamento de Zaʿatari, en donde unos 80,000 sirios, de los cuales aproximadamente la mitad son niños, se han refugiado de los conflictos y tumultos. A lo largo de la película de RV, Sidra conduce al público a un viaje a través de su existencia cotidiana, dando así una percepción de actividades tales como el comer, dormir, el aprendizaje y el juego dentro de este extenso paisaje desértico de carpas. Al lanzar a los espectadores a este mundo que de otro modo quedaría como algo lejano, la ONU se esfuerza por ofrecer a los donantes una mirada tangible del impacto que sus contribuciones tienen, y,¿ a los posibles donantes les permite comprender las zonas que aún necesitan contar con un respaldo sustancial.

La vida de los migrantes en un campamento de refugiados en RV (proyecto Clouds over Sidra, de ONU RV)
Fuente: http://unvr.sdgactioncampaign.org/cloudsoversidra/

My Mother’s Wing, otro proyecto de ONU RV, brinda una perspectiva sin paralelo de la Franja de Gaza asolada por la guerra, presentando un relato en primera persona del viaje de una joven madre mientras lidia con la pérdida desgarradora de dos de sus hijos durante el bombardeo del colegio de la UNRWA en julio de 2014. Esta conmovedora película echa luz sobre la combinación de tristeza y esperanza que tiñe su existencia diaria, resaltando su papel crucial como ejemplo de fortaleza dentro su familia. En medio del proceso de curación ella emerge como un pilar de apoyo, cultivando así un optimismo que empodera a su familia para persistir con renovada esperanza.

La experiencia de una zona asolada por la guerra (proyecto My Mother’s Wing, de ONU RV)
Fuente: https://unvr.sdgactioncampaign.org/a-mother-in-gaza/

Mejorando la accesibilidad en el Sur Global con RA

En diversas partes del mundo, millones de adultos luchan para leer cosas elementales como programaciones de ómnibus o formularios bancarios. Para rectificar esta situación, la tecnología de RA puede usarse con las cámaras de los teléfonos para ayudar a la gente que lucha con la lectura. Como ejemplo, Google Lens apoya la traducción y puede leer el texto en voz alta cuando se le señala. Va resaltando las palabras a medida que habla, de modo que resulta posible seguirle y entender todo el contexto. También se puede pulsar una palabra específica y aprender su definición. Google Lens está diseñado para que funcione no sólo con los costosos teléfonos inteligentes, sino también con aparatos más baratos equipados con cámaras.

Google Translate con Google Lens, en una traducción en vivo y en tiempo real de boletos de tren
Fuente: https://storage.googleapis.com/gweb-uniblog-publish-prod/original_images/Consumer_TrainTicket.gif

“IKEA Place” es otro ejemplo de una app de RA que muestra el poder del diseño espacial y la interacción con el consumidor impulsado por la RA. La app emplea la tecnología de RA para permitir a los usuarios integrar los productos (muebles) a sus habitaciones, mejorando así los procesos de toma de decisión e incrementando la satisfacción de los consumidores. Esta misma tecnología podría también aplicarse en el ámbito de la planificación cívica. Al proporcionar una representación auténtica de productos en entornos del mundo real, la app puede ayudar a los planificadores urbanos y arquitectos a simular diversos elementos de diseño dentro de espacios públicos, contribuyendo así a una toma de decisiones informada para los paisajes urbanos y las áreas comunales.

IKEA Place: usando la RA para visualizar los muebles dentro de una habitación. Fuente: Ikea.com

En Dick (2021b) se señalan más ejemplos de cómo es que la tecnología de RA/RV puede usarse para mejorar la accesibilidad.

Enfocando la discriminación de género y de casta

La presencia de las mujeres al centro de nuestro sistema democrático marca un significativo paso hacia la realización de la igualdad de género (ODS 5) y de instituciones robustas (ODS 16). La película de RV “Compliment”, creada por Lucy Bonner, una estudiante de postgrado en el Parsons School of Design, busca llamar la atención sobre el acoso y la discriminación que las mujeres soportan en entornos inseguros, lo que lamentablemente sigue siendo un problema global. A través de esta película de RV, los espectadores pueden ponerse en los zapatos de una mujer que recorre las calles, consiguiendo así una perspectiva de primera mano de la inquietante gama de acosos que muchas de ellas experimentan, a menudo a diario.

Vista de una escena de la película de RV “Compliment”.
Fuente: http://lucymbonner.com/compliment.html

Hay otras formas de discriminación sistemática, entre ellas la que tiene como base a las castas. “Course to Question”, una película de RV producida por Novus Select en colaboración con ONU Mujeres y Vital Voices, y que cuenta además con el apoyo de Google, ofrece un vistazo de las luchas de las activistas que combaten la discriminación basada en castas. Esta película resalta los apuros de las mujeres dalit, que siguen ocupando los peldaños más bajos de las jerarquías de castas, color y género. Antes llamadas “intocables”, las dalits son miembros de la casta más baja de la India y están luchando contra los sistemas de opresión. Ellas son privadas sistemáticamente de los derechos fundamentales, entre ellos el acceso a necesidades básicas como la comida, la educación y un trabajo justo.

Escena de la película en RV “Courage to Question” de ONU Mujeres, que resalta la discriminación que enfrentan las mujeres dalit o parias. Foto tomada de https://www.youtube.com/watch?v=pJCl8FNv22M

Capacitación en salud materna

En 2022 el Fondo de Población de la ONU, antes el UN Fund for Population Activities (UNFPA), lanzó una innovación pionera en RV que buscaba mejorar la capacitación en salud materna, en lo que fue el primer proyecto en implementar la RV en Timor Oriental y posiblemente en la región Asia-Pacífico. El programa de RV incluía el diseño de módulos de RV que contenían habilidades y procedimientos de Cuidado obstétrico y de recién nacidos de emergencia (EmONC) para salvar la vida de madres y bebés usando gafas de RV. La meta de este proyecto es crear entornos de aprendizaje mediados digitalmente en donde se visualicen situaciones médicas reales, para que los capacitados mejoren sus experiencias y resultados de aprendizaje y “refresquen las habilidades de cientos de profesores y parteras capacitados, para ayudarles a salvar vidas y evitar muertes maternas”.

Fuente: https://timor-leste.unfpa.org/en/news/unfpa-develop-novel-innovation-help-reduce-maternal-deaths-timor-leste-using-virtual-reality © UNFPA Timor-Leste.

Resaltando el racismo y la pobreza extrema

La experiencia inmersiva en RV de “1000 Cut Journey” lleva a los participantes a una profunda exploración. Ellos se ponen en los zapatos de Michael Sterling, un varón negro, y recorren momentos cruciales de su vida para así obtener de primera mano una percepción del impacto del racismo. Esta travesía guía a los participantes a través de sus experiencias como un niño que enfrenta medidas disciplinarias en el salón de clase, como un adolescente que tiene que vérselas con encuentros con la policía, y como un joven adulto que tiene que lidiar con la discriminación laboral (Cogburn et al., 2018).

Vista de 1000 Cut Journey, una película de RV sobre el racismo.
Fuente: https://www.virtualrealitymarketing.com/case-studies/1000-cut-journey/

1000 Cut Journey sirve como una poderosa herramienta con que fomentar un cambio significativo de perspectiva. Al sumergir a las personas en la narrativa de Michael Sterling, se facilita un compromiso más profundo y auténtico con las complejas cuestiones que rodean al racismo.

En otro proyecto del Virtual Human Interaction Lab de la Universidad de Stanford, se puede experimentar de primera mano la vida de personas indigentes sin hogar y caminar en los zapatos de quienes ya no pueden pagar una casa dentro de una experiencia de RV. De estas forma, los investigadores buscan generar conciencia y asimismo estudiar las experiencias en RV de la empatía. Los investigadores descubrieron a través de su estudio que en comparación con otros ejercicios de asumir perspectivas, una experiencia en RV genera un cambio más duradero en el comportamiento.

Vista de la película de RV Becoming Homeless — A Human Experience.
Fuente: https://xrgigs.com/offered/becoming-homeless-a-human-experience/

Gobernanza participativa usando RE

El MIT Media Lab y HafenCity University Hamburg se unieron para crear CityScope, una herramienta innovadora que fusiona IA, algoritmos y la percepción humana para una gobernanza participativa. Esta herramienta utiliza datos detallados que incluyen información demográfica y planificación urbana, para alentar la participación ciudadana en la resolución de problemas comunales y la toma de decisiones colectiva. Permite a los usuarios examinar diversos escenarios, fomentando un diálogo informado y soluciones colaborativas. Este proyecto resalta cómo es que el hecho de combinar la tecnología y la creatividad humana pueden mejorar la participación ciudadana en un entorno urbano.

Dirigentes vecinales y vecinos se reúnen para explorar posibles lugares para comunidades de refugiados. Crédito: Walter Schiesswohl. Fuente: https://medium.com/mit-media-lab/

Como otro ejemplo considérese vTaiwan, una innovadora aproximación a la gobernanza participativa que fusiona fluidamente ministerios de gobierno, académicos, ciudadanos y líderes empresariales para redefinir la democracia moderna. Este proceso transformador elimina la redundancia al hacer que las consultas en línea y offline converjan en plataformas como vtaiwan.tw y usarlas para (1) efectuar propuestas; (2) recoger opiniones; (3) reflexionar; y (4) dar leyes. Taiwán también ha usado la RV para resaltar su respuesta a la crisis de COVID-19 a través de la película de RV The Three Crucial Steps, en donde se muestra cómo los tres pasos —acciones prudentes, respuesta rápida y el despliegue temprano— tuvieron un papel crucial en su exitosa respuesta al COVID-19.

El viceministro taiwanés de asuntos exteriores ve Three Crucial Steps, la película en RV del ministerio, acerca de la respuesta de su país al COVID-19. Foto: Louise Watt.
Fuente: https://topics.amcham.com.tw/2020/12/taiwan-new-trails-with-extended-reality/

vTaiwan usa el poder de las herramientas de código abierto y sistemas avanzados de tiempo real como Pol.is, que emplea el análisis estadístico y el aprendizaje automático para decodificar el sentir de su extensa base de usuarios (más de 200,000 participantes), los cuales pueden participar con una RV inmersiva mediante la integración pionera de cámaras en 3D con diálogos transmitidos en vivo. Este movimiento evolutivo, nacido en 2014 y todavía en curso, sirve como un modelo de gobernanza democrática del siglo XXI mejorada por la tecnología.

RV clínica y terapia virtual

La RV guarda un potencial significativo para su aplicación en entornos clínicos, en particular para la terapia y la rehabilitación virtuales, tal como lo señalan Rizzo et al. (2023). Para ejemplificar la utilidad clínica de la RV, veamos su papel en el tratamiento del dolor por quemaduras. A este último los profesionales médicos a menudo lo describen como un calvario insoportable que a menudo hace que los pacientes lidien con el síndrome de estrés postraumático (PTSD). Durante más de dos décadas, la RV ha proporcionado cierto grado de consuelo a los pacientes quemados a través de soluciones innovadoras como el juego de RV SnowWorld, diseñado por investigadores de la Universidad de Washington.

Un paciente usa RV SnowWorld durante su tratamiento por quemaduras.
Fotografía y copyright: Hunter G. Hoffman. Crédito: Universidad de Washington.
Fuente: https://depts.washington.edu/hplab/research/virtual-reality/

A lo largo del proceso del cuidado operativo de heridas por quemaduras se hace que los pacientes se sumerjan en la experiencia de RV de SnowWorld. Es de resaltar que esta sumersión participativa ha tenido éxito ya sea en sofocar el dolor que aflige a los pacientes, ya en mitigar las señales de dolor que les afligen. El concepto que yace detrás del diseño de SnowWorld gira en torno a la idea de la nieve y aprovecha el marcado contraste entre el frío y el calor, para así contrarrestar las sensaciones de dolor de las quemaduras. El objetivo es desviar los pensamientos del paciente de su accidente o de sus heridas por quemaduras. La efectividad de la RV en el manejo del dolor recibido resalta el gran potencial que la tecnología de RA/RV tiene en la terapia clínica y el cuidado de la salud.

Inicio

Referencias

A continuación encontrará los trabajos citados en este recurso.

Recursos adicionales

Inicio

Categories

IA generativa

¿Qué es la IA generativa?

La inteligencia artificial generativa (GenAI) se refiere a una clase de técnicas y modelos de inteligencia artificial que crean contenidos nuevos y originales, a partir de los datos con que los modelos fueron entrenados. El output pueden ser textos, imágenes o videos que reflejan o responden al input. La GenAI, al igual que muchas aplicaciones de la inteligencia artificial, puede abarcar muchas industrias. Muchas de estas aplicaciones son en el área del arte y la creatividad, pues GenAI puede usarse para crear arte, música, videojuegos y poesía a partir de los patrones observados en los datos de entrenamiento. Pero su aprendizaje del lenguaje hace que también sea idónea para facilitar la comunicación, por ejemplo como chatbots o agentes conversacionales que pueden simular la conversación humana, traducir lenguajes, síntesis realista del habla o texto a habla. Estos no son sino unos cuantos ejemplos. Este artículo desarrolla las formas en que la GenAI presenta tanto oportunidades como riesgos en el espacio cívico y para la democracia, y qué pueden hacer las instituciones gubernamentales, organizaciones internacionales, activistas y organizaciones de la sociedad civil para aprovechar las oportunidades y cuidarse de los riesgos.

¿Cómo funciona GenAI?

Al centro de GenAI yacen modelos generativos, que son algoritmos o arquitecturas diseñados para aprender los patrones subyacentes y las estadísticas de los datos de entrenamiento. Estos modelos pueden entonces usar este conocimiento aprendido para producir nuevos outputs que semejan la distribución original de los datos. La idea es captar los patrones subyacentes y las estadísticas de los datos de entrenamiento para que el modelo de IA pueda generar nuevos ejemplos que forman parte de la misma distribución.

Pasos del proceso de GenAI

Como vemos en la figura arriba, los modelos de GenAI se desarrollan mediante un proceso en donde una base curada se usa para entrenar redes neuronales con técnicas de aprendizaje automático. Estas redes pueden aprender a identificar patrones en los datos, lo que les permite generar nuevos contenidos o hacer predicciones basadas en la información aprendida. A partir de allí los usuarios pueden ingresar comandos en estos modelos algorítmicos bajo la forma de palabras, números o imágenes, y el modelo produce contenidos que responden sobre la base del input y los patrones aprendidos con los datos de entrenamiento. Como se les entrena con conjuntos de datos cada vez más grandes, los modelos de GenAI alcanzan una gama más amplia de posibles contenidos que pueden generar entre distintos medios, desde audio a imágenes y texto.

Hasta hace poco, la GenAI simplemente imitaba el estilo y la sustancia del input. Por ejemplo, alguien podría ingresar un fragmento de un poema o noticia en un modelo, y éste produciría un poema o noticia completo que sonaba como el contenido original. Un ejemplo de cómo se ve esto en el campo de la lingüística y que usted podría haber visto en su propio correo electrónico, es el lenguaje predictivo del tipo de Google Smart Compose, que completa una oración a partir de la combinación de palabras iniciales que usa y la expectativa probabilística de qué habrá de seguir. Por ejemplo, una máquina que estudia billones de palabras de conjuntos de datos podría generar una expectativa probabilística de una oración que comienza con “por favor ven ___”. En el 95% de los casos, la máquina verá “aquí” como la siguiente palabra, en el 3% a “conmigo” y en el 2% “pronto”. De este modo, al completar oraciones o generar outputs, el algoritmo que aprendió el lenguaje usará la estructura de la oración y la combinación de palabras que había visto antes. Dado que los modelos son probabilísticos, a veces pueden cometer errores que no reflejan las intenciones matizadas del input.

GenAI ahora cuenta con capacidades más expansivas. Pasando más allá del texto, es ahora una herramienta para producir imágenes a partir de textos. Por ejemplo, herramientas tales como DALL-E, Stable Diffusion y MidJourney permiten a un usuario ingresar descripciones de texto a las que el modelo luego usa para producir una imagen correspondiente. Estas imágenes varían en su realismo; por ejemplo, algunas parecen salidas de una escena de ciencia ficción, en tanto que otras parecen una pintura y otras más una fotografía. Vale la pena señalar además que estas herramientas están mejorando constantemente, asegurando así que las fronteras de lo que se puede conseguir con la generación de testo a imagen seguirán expandiéndose.

IA conversacional

Recientes modelos han incorporado el aprendizaje automático a partir de patrones de lenguaje, pero también información factual acerca de la política, la sociedad y la economía. Los últimos modelos son también capaces de tomar comandos de input a partir de imágenes y voz, ampliando aún más su versatilidad y utilidad en diversas aplicaciones.

Recientemente, los modelos que miran a los usuarios y simulan la conversación humana —“IA conversacional”— han proliferado y operan más como chatbots, respondiendo a interrogantes generales y preguntas, de modo muy parecido a cómo funciona un motor de búsqueda. Algunos ejemplos incluyen el pedirle al modelo que responsa a cualquiera de estas preguntas:

  • Presente una foto de un líder político tocando un ukulele en el estilo de Salvador Dalí.
  • Hable acerca de la capital de Kenia, su forma de gobierno, su carácter o acerca de la historia de la descolonización en Asia del Sur.
  • Escriba e interprete una canción acerca de la adolescencia que imite una canción de Drake.

En otras palabras, estos modelos más nuevos pueden funcionar como una fusión de búsqueda de Google y un intercambio con una persona conocedora acerca de su área de especialidad. Al igual que a una persona socialmente atenta, a estos modelos se les puede ir enseñando en el transcurso de una conversación. Si usted fuera a hacer una pregunta acerca de los mejores restaurantes en Manila y el chatbot le responde con una lista que incluye algunos restaurantes de Europa Continental, usted podría entonces manifestar su preferencia por los restaurantes filipinos, lo que haría que el chatbot personalice su output a sus preferencias específicas. El modelo aprende a partir de la retroalimentación, pero modelos como ChatGPT señalarán rápidamente que sólo están adiestrados con datos hasta cierta fecha, lo que quiere decir que algunos restaurantes habrán cerrado, y que podrían haber aparecido otros que han sido galardonados. El ejemplo resalta una tensión fundamental entre los modelos o contenidos actualizados, y la capacidad para refinar a los primeros. Si intentamos tener modelos que aprendan la información a medida que ésta va siendo producida, entonces ellos generarán respuestas actualizadas pero no podrán filtrar los outputs de la mala información, los discursos del odio o las teorías de la conspiración.

Definiciones

GenAI involucra varios conceptos claves:

Modelos generativos: los modelos generativos son una clase de modelos de aprendizaje automático diseñados para crear o generar nuevos outputs de datos que semejen un conjunto de datos de entrenamiento dado. Estos modelos aprenden los patrones y estructuras subyacentes a partir de los datos de entrenamiento y usan dicho conocimiento para generar nuevos outputs de datos similares.

ChatGPT: ChatGPT es un modelo transformador generativo preentrenado (GPT) desarrollado por OpenAI. Si bien los investigadores han desarrollado y usado modelos de lenguaje durante décadas, ChatGPT fue el primer modelo de lenguaje que miraba al consumidor. Entrenado para entender y producir textos similares a los humanos en un entorno de diálogo, fue diseñado específicamente para generar respuestas conversacionales y tomar parte en conversaciones interactivas basadas en textos. En cuanto tal es idóneo para crear chatbots, asistentes virtuales y otras aplicaciones conversacionales de IA.

Red neuronal: una red neural es un modelo de computación que busca funcionar como las neuronas interconectadas del cerebro. Forma parte importante del proceso de aprendizaje profundo porque ejecuta un cálculo, y la fuerza de las conexiones (pesos) entre neuronas determina el flujo de información e influye en el output.

Datos de entrenamiento: los datos de entrenamiento son los que se usan para entrenar a los modelos generativos. Son de crucial importancia, puesto que el modelo aprende patrones y estructuras a partir de ellos para crear nuevos contenidos. Por ejemplo, los datos de entrenamiento en el contexto de la generación de textos consistirían en una gran colección de documentos de texto, oraciones o párrafos. Su calidad y diversidad tienen un impacto significativo sobre el desempeño del modelo de GenAI, porque le ayudan a generar contenidos más relevantes.

Alucinación: en el contexto de GenAI, el término “alucinación” se refiere a un fenómeno en el cual el modelo de IA produce outputs que no tienen base en la realidad o en representaciones precisas de los datos ingresados. En otras palabras, la IA genera contenidos que parecieran existir, pero que en realidad han sido íntegramente inventados y no tienen base alguna en los datos reales con los que fue entrenada. Por ejemplo, un modelo de lenguaje podría producir párrafos de texto que parecen coherentes y factuales, pero con un examen más detenido parecería incluir información falsa, hechos que jamás ocurrieron, o conexiones entre conceptos que son lógicamente defectuosas. El problema se debe al ruido de los datos de entrenamiento. Abordar y minimizar las alucinaciones de GenAI es un reto actual de las investigaciones. Los investigadores y desarrolladores se esfuerzan por mejorar la comprensión que los modelos tienen del contexto, la coherencia y la precisión fáctica, para así reducir la probabilidad d generar contenidos que puedan ser considerados alucinatorios.

Prompt: un prompt de GenAI es un input o instrucción específico dado a un modelo de GenAI para que lo guíe en la producción de un output deseado. En la generación de imágenes, un prompt podría involucrar el especificar el estilo, contenido y otros atributos que desea que la imagen generada tenga. La calidad y relevancia del output generado a menudo dependen de la claridad y especificidad del prompt. Uno bien armado puede llevar a contenidos generados más precisos y deseables.

Métrica de evaluación: evaluar la calidad de los outputs de los modelos de GenAI puede ser difícil, pero varias métricas de evaluación han sido preparadas para evaluar diversos aspectos del contenido generado. Métricas tales como Inception Score, Frechet Inception Distance (FID), y Perceptual Path Length (PPL) intentan medir aspectos de la performance del modelo como la diversidad de las respuestas (de modo tal que no todas suenen como copias la una de la otra), la relevancia (que traten del tema) y la coherencia (que se mantengan en el tema) del output.

Ingeniería de instrucciones: la ingeniería de instrucciones es el proceso de diseñar y refinar los prompts o instrucciones dadas a los sistemas de GenAI —como los chatbots, o los modelos de lenguaje como GPT-3.5— para conseguir las respuestas específicas y deseadas. Esto involucra el armado del texto o interrogante del input de tal modo que el modelo genere outputs que se alineen con la intención del usuario o con la tarea deseada. Es útil para optimizar los beneficios de GenAI, pero requiere de una profunda comprensión del comportamiento y las capacidades del modelo, así como de los requerimientos específicos de la aplicación o tarea. Unos prompts bien armados pueden mejorar la experiencia del usuario al asegurar que los modelos brinden respuestas valiosas y precisas.

Inicio

¿De qué modo es la GenAI relevante en el espacio cívico y para la democracia?

El rápido desarrollo y difusión de las tecnologías de GenAI —en medicina, sostenibilidad ambiental, política y periodismo, entre muchos otros campos— viene creando o habrá de crear enormes oportunidades. Se la viene usando para descubrir medicamentos, el diseño de las moléculas, análisis de imágenes médicas y recomendaciones de tratamiento personalizadas. Se la usa para modelar y simular ecosistemas, predecir cambios ambientales y diseñar estrategias de conservación. Ella ofrece respuestas más accesibles acerca de los procedimientos burocráticos, de modo tal que los ciudadanos entiendan mejor a su gobierno, lo que constituye un cambio fundamental en la forma en que éstos acceden a la información y en cómo es que el gobierno opera. Está apoyando la generación de contenidos escritos tales como artículos, reportes y publicidad.

En todos estos sectores, la GenAI también ha introducido riesgos posibles. Los gobiernos, trabajando con el sector privado y organizaciones de la sociedad civil, están asumiendo distintos enfoques para equilibrar la capitalización de las oportunidades con el cuidarse de otros riegos, reflejando así distintas filosofías acerca de los riesgos y el papel de la innovación en sus respectivas economías, y los distintos precedentes legales y paisajes políticos entre los países. Muchos de los esfuerzos pioneros vienen dándose en los países en donde la IA se usa más, como en los Estados Unidos o en los de la Unión Europea, o en otros de alta tecnología como China. Las conversaciones en torno a la regulación en otros países se han retrasado. En África, por ejemplo, los expertos en la conferencia de Africa Tech Week, en la primavera de 2023, manifestaron su preocupación por el retraso en el acceso de África a la IA, y la necesidad de ponerse al día para cosechar sus beneficios en la economía, la medicina y la sociedad, pero también indicaron los problemas de privacidad y la importancia de tener equipos de investigación en IA diversos, para así cuidarse de los sesgos. Estas conversaciones sugieren que tanto el acceso como la regulación se están desarrollando a distintas tasas en distintos contextos, y que aquellas regiones que actualmente están desarrollando y probando regulaciones podrían ser los modelos a seguir, o al menos brindar las lecciones aprendidas a otros países cuando éstos se regulen.

La Unión Europea se apresuró a regular la IA usando un enfoque escalonado basado en riesgos, que designa como prohibidos a algunos de estos tipos de “usos de alto riesgo” Se considera que son de alto riesgo los sistemas de GenAI que no tienen planes de evaluación y mitigación de riesgos, información clara para los usuarios, explicabilidad, logging en las actividades y otros requisitos más. Según un estudio de la Universidad de Stanford de 2021, la mayoría de los sistemas de GenAI no satisface estos requisitos. Sin embargo, los ejecutivos de 150 compañías europeas respondieron colectivamente en contra de la agresiva regulación, sugiriendo que una reglamentación demasiado estricta de la IA incentivaría a las compañías a establecer su sede fuera de Europa y sofocaría la innovación y el desarrollo económico de la región. Una carta abierta reconoce que cierta regulación podría estar justificada, pero que GenAI será “decisiva” y “poderosa”, y que “Europa no puede darse el lujo de ponerse al margen”.

China ha sido uno de los países más agresivos cuando se trata de la regulación de la IA. La Administración de la Ciberseguridad de China exige que la IA sea transparente, sin sesgos y que no se use para generar desinformación o descontento social. Las normas existentes reglamentan fuertemente los deepfakes: medios sintéticos en que el aspecto de una persona, su rostro y voz inclusive, son reemplazados con el de otra usualmente usando IA. Todo proveedor de servicio que use contenidos generados por GenAI debe asimismo obtener el consentimiento de los sujetos de los deepfakes, etiquetar los outputs, y luego responder a toda desinformación. Sin embargo y como veremos, haber implementado estas regulaciones no quiere decir que los actores estatales no usen ellos mismos la IA con fines maliciosos o en operaciones de influencia.

Los Estados Unidos celebraron una serie de audiencias para entender mejor la tecnología y su impacto en la democracia, pero para septiembre de 2023 aún no contaba con ninguna ley significativa que regulase GenAI. Sin embargo, se han celebrado varias sesiones legislativas para entender mejor la tecnología y prepararse para regularla. La Comisión Federal de Comercio, responsable por la promoción de la protección del consumidor, envió una carta de 20 páginas a OpenAI, el creador de ChatGPT, solicitando respuesta a sus preguntas acerca de la privacidad de los consumidores y la seguridad. El gobierno de los EE.UU. además ha trabajado con las principales empresas de GenAI para establecer salvaguardas de transparencia y seguridad voluntarias a medida que los riesgos y beneficios de la tecnología evolucionan.

António Guterrez, el secretario general de las Naciones Unidas, fue más allá de las iniciativas reguladoras a nivel regional o de los países y propuso la transparencia, la responsabilidad y la supervisión de la IA. En palabras del Sr. Guterrez: “La comunidad internacional cuenta con una larga historia de responder a nuevas tecnologías con el potencial para perturbar nuestras sociedades y economías. Nos hemos reunido en las Naciones Unidas para establecer nuevas normas internacionales, firmar nuevos tratados y establecer nuevas agencias globales. Si bien muchos países han solicitado medidas e iniciativas distintas con respecto a la gobernanza de la IA, esto necesita tener un enfoque universal”. Esta afirmación apunta al hecho que el espacio digital no conoce fronteras, y que las tecnologías de software innovadas en un país inevitablemente habrán de cruzarlas, lo que sugiere que unas normas o restricciones significativas de la GenAI probablemente necesitarán de un enfoque internacional coordinado. Con este fin, algunos investigadores han propuesto una Organización Internacional de Inteligencia Artificial que ayude a certificar el cumplimiento de estándares internacionales sobre la seguridad de la IA, y que también reconozcan la naturaleza inherentemente internacional de su desarrollo y despliegue.

Inicio

Oportunidades

Mejorar la representación

Uno de los principales retos en democracia y para la sociedad civil es asegurar que las voces de los electores sean escuchadas y representadas, lo que involucra en parte el que los ciudadanos mismos tomen parte en el proceso democrático. La GenAI podría ser útil para dar voz tanto a quienes formulan las políticas como a los ciudadanos, una forma de comunicarse con mayor eficiencia y mejorar así la confianza en las instituciones. Otro camino para mejorar la representación es que la GenAI presente datos que den a los investigadores y a los que diseñan las políticas, una oportunidad para entender diversas cuestiones sociales, económicas y medioambientales, así como la preocupación que los electores tienen con respecto a ellas. Por ejemplo, GenAI podría usarse para sintetizar grandes volúmenes de comentarios entrantes de líneas abiertas o correos electrónicos, y así entender mejor las preocupaciones desde abajo que los ciudadanos tienen con respecto a su democracia. A decir verdad, estas herramientas de análisis de datos necesitan asegurar la privacidad de la información, pero sí pueden proporcionar una visualización de los datos para que los líderes institucionales entiendan qué le interesa a la gente.

Fácil acceso de lectura

Muchas regulaciones y leyes son densas y difíciles de entender para cualquiera fuera del establishment que toma las decisiones. Estos retos a la accesibilidad se hacen aún más grandes para las personas con discapacidades tales como la discapacidad cognitiva. La GenAI puede resumir extensas leyes y traducir densas publicaciones gubernamentales en un formato de fácil lectura, con imágenes y lenguaje simple. Las organizaciones de la sociedad civil pueden también usarla para diseñar campañas en los medios sociales y otros contenidos para que sean más accesibles a quienes tienen alguna discapacidad.

Participación cívica

La GenAI puede mejorar la participación cívica generando contenidos personalizados a intereses y preferencias individuales mediante una combinación de análisis de datos y aprendizaje automático. Esto podría involucrar la generación de materiales informativos, resúmenes de noticias o visualizaciones que atraigan a los ciudadanos y les alienten a tomar parte en las discusiones y actividades cívicas. La industria del marketing hace tiempo ha aprovechado el hecho que es más probable que los contenidos específicos a consumidores individuales despierten su consumo o participación, y esta idea vale en la sociedad civil. Cuanto más esté personalizado y focalizado el contenido en una persona específica o en una categoría de persona, tanto más probable es que ella responda. Una vez más, el uso de los datos para ayudar a clasificar las preferencias de los ciudadanos depende inherentemente de los datos de los usuarios. No todas las sociedades suscribirán este uso que se les da. Por ejemplo, la Unión Europea ha mostrado cierto recelo con respecto a la privacidad, y ha sugerido que una sola talla no servirá para todos en términos de este uso particular de la GenAI para la participación cívica.

Habiendo dicho esto, esta herramienta podría ayudar a eliminar la apatía de los votantes, la cual podría conducir a un desencanto y alejamiento de la política. En lugar de comunicaciones repetitivas que urgen a los jóvenes a que voten, la GenAI podría, por ejemplo, producir un contenido inteligente que se sabe resuena entre las jóvenes o los grupos marginados, ayudando así a contrarrestar algunas de las barreras adicionales a la participación que los grupos marginados enfrentan. En un entorno educativo, el contenido personalizado podría usarse para atender a las necesidades de los estudiantes en diferentes regiones y con distintas capacidades de aprendizaje, proporcionándose al mismo tiempo tutores virtuales o herramientas de aprendizaje del lenguaje.

Deliberación pública

Otra forma en que la GenAI podría hacer posible la participación y deliberación públicas sería mediante chatbots y agentes conversacionales impulsados por GenAI. Estas herramientas pueden facilitar la deliberación pública involucrando a los ciudadanos en el diálogo, abordando sus preocupaciones y ayudándoles a navegar complejas cuestiones cívicas. Estos agentes pueden proporcionar información, responder preguntas y estimular la discusión. Algunos municipios ya han lanzado asistentes virtuales y chatbots propulsados por la IA que automatizan los servicios cívicos y que optimizan procesos tales como las preguntas de los ciudadanos, los pedidos de servicio y las labores administrativas. Esto podría llevar a una mayor eficiencia y capacidad de respuesta en las operaciones del gobierno. La falta de recursos municipales —de personal, por ejemplo— podría significar que los ciudadanos tampoco cuentan con la información que necesitan para ser participantes significativos de su sociedad. Con recursos relativamente limitados se puede entrenar a un chatbot con datos locales, para que brinde la información específica necesaria para cubrir la brecha.

Los chatbots pueden ser entrenados en múltiples lenguajes, lo que hace que la información y los recursos cívicos puedan ser más accesibles a poblaciones diversas. Ellos pueden asistir a las personas con discapacidades generando formatos alternativos para la información, como descripciones de audio o conversiones de texto a habla. La GenAI puede ser entrenada con dialectos y lenguas locales, promoviendo a las culturas indígenas y haciendo que el contenido digital sea más accesible para poblaciones diversas.

Es importante señalar que la aplicación de GenAI debe hacerse prestando sensibilidad a los contextos locales, las consideraciones culturales y de privacidad. Adoptar un enfoque de diseño humano-céntrico a la colaboración entre los investigadores de IA, programadores, grupos de la sociedad civil y comunidades locales podría ayudar a asegurar que estas tecnologías sean adaptadas apropiada y equitativamente para abordar las necesidades y retos específicos de la región.

Analítica predictiva

La GenAI puede también usarse en la analítica predictiva para predecir posibles resultados de decisiones de política. Por ejemplo, los modelos generativos propulsados por la IA pueden analizar los datos locales del suelo y el clima para optimizar el rendimiento de los cultivos y recomendar prácticas agrícolas idóneas para regiones específicas. Se la puede usar para generar simulaciones realistas para predecir posibles impactos y preparar estrategias de respuesta a los desastres para las operaciones de socorro. Puede analizar las condiciones medioambientales y la demanda de energía locales para optimizar el despliegue de fuentes energéticas renovables como la energía solar y eólica, promoviendo así soluciones energéticas sostenibles.

Al analizar los datos históricos y generar simulaciones, los decisores de políticas pueden tomar decisiones más informadas y basadas en las evidencias para la mejora de la sociedad. Estas mismas herramientas pueden ayudar no sólo a quienes formulan las políticas, sino también a las organizaciones de la sociedad civil a generar visualizaciones de datos o resumir información acerca de las preferencias ciudadanas. Esto puede ayudar a producir contenidos más informativos y oportunos acerca de las preferencias ciudadanas y el estado de cuestiones claves, como el número de personas que no tienen casa.

Sostenibilidad medioambiental

La GenAI se puede usar en formas que conduzcan a un impacto ambiental favorable. Podría, por ejemplo, usársela en campos tales como la arquitectura y el diseño de productos para optimizar los diseños para que sean más eficientes. Se la puede usar para optimizar procesos en la industria energética que puedan mejorar la eficiencia energética. También tiene el potencial para ser usada en logística, en donde GenAI puede optimizar las rutas y cronogramas, reduciendo así el consumo y las emisiones de combustible.

Inicio/a>

Riesgos para la democracia

Para aprovechar el potencial de GenAI para la democracia y el espacio cívico es necesario contar con un enfoque equilibrado que aborde los problemas éticos, fomente la transparencia, promueva el desarrollo tecnológico inclusivo e involucre a múltiples partes interesadas. La colaboración entre investigadores, decisores de política, la sociedad civil y diseñadores de tecnología puede ayudar a asegurar que GenAI contribuya positivamente a los procesos democráticos y la participación cívica. La capacidad de generar grandes volúmenes de contenido creíble podría crear oportunidades para que los decisores de política y los ciudadanos se conecten mutuamente, pero estas mismas capacidades de los modelos avanzados de GenAI crean también posibles riesgos.

Desinformación en línea

Aunque GenAI ha mejorado, los modelos siguen alucinando y producen outputs que suenan convincentes, por ejemplo, hechos o historias que suenan plausibles pero que no son correctos. Si bien hay muchos casos en los cuales estas alucinaciones son benignas —como una pregunta científica acerca de la edad del universo—, hay otros casos en los cuales las consecuencias serían desestabilizadoras política o socialmente.

Dado que la GenAI mira al público, es posible que las personas utilicen estas tecnologías sin entender sus limitaciones. Podrían entonces esparcir desinformación inadvertidamente a partir de una respuesta imprecisa acerca de política o historia, por ejemplo, una afirmación inexacta acerca de un dirigente político que termina encendiendo un entorno político ya de por sí agrio. La propagación de desinformación generada por IA que inunde el ecosistema informativo, tiene el potencial para reducir la confianza en dicho ecosistema como un todo, haciendo así que la gente sea escéptica de los hechos y se conforme con las creencias de sus círculos. La propagación de desinformación podría significar que los miembros de la sociedad crean cosas que no son ciertas acerca de los candidatos políticos, los procedimientos electorales o las guerras.

Los ejemplos de GenAI que genera desinformación incluyen no sólo textos sino también deepfakes. Si bien estos últimos tienen posibles aplicaciones benévolas, como entretenimiento o en los efectos especiales, también pueden ser mal utilizados para crear videos sumamente realistas que difunden información falsa o eventos fabricados, que hacen que para los espectadores sea difícil discernir entre los contenidos reales y falsos, lo que podría a su vez conducir a la propagación de la desinformación y minar la confianza en los medios. En relación con esto se les podría usar en la manipulación política, en donde los videos de políticos o figuras públicas son alterados para hacer que parezcan decir o hacer cosas que podrían difamarles, dañar su reputación o influir en la opinión pública.

La GenAI hace que sea más eficiente generar y amplificar la desinformación, creada intencionalmente con miras a engañar a un lector, porque puede producir información imprecisa aparentemente original y creíble en gran cantidad. Ninguna de las historias o comentarios se repetiría necesariamente, lo que podría llevar a una narrativa al parecer aún más creíble. Las campañas de desinformación extranjeras a menudo han sido identificadas a partir de errores gramaticales o en las grafías, pero la capacidad de usar estas nuevas tecnologías de GenAI quiere decir la creación eficiente de un contenido que suena nativo y que puede engañar a los filtros usuales que una plataforma podría usar para identificar las campañas de desinformación de gran escala. La GenAI podría también hacer que proliferen los bots sociales que son indistinguibles de los humanos, y que pueden microfocalizarse en personas con desinformación personalizada.

Campañas de astroturfing

Como las tecnologías de GenAI miran al público y son fáciles de usar, se las puede usar para manipular no sólo al público de masas, sino también a distintos niveles de las elites gubernamentales. Se espera que los líderes políticos se comprometan con las preocupaciones de sus electores, tal como queda reflejado en comunicaciones tales como mensajes electrónicos que revelan la opinión y el sentir públicos. ¿Pero qué pasaría si un actor malicioso usase ChatGPT u otro modelo de GenAI para crear grandes volúmenes de contenidos de apoyo y los distribuye entre los líderes políticos como si viniesen de ciudadanos? Esta sería una forma de astroturfing, una práctica engañosa que esconde la fuente de un contenido con miras a crear la percepción de un apoyo de base. Las investigaciones sugieren que los funcionarios electos en los Estados Unidos han sido susceptibles a estos ataques. Los líderes podrían muy bien permitir que este volumen de contenido influya en su agenda política, aprobando leyes o estableciendo burocracias en respuesta a esta aparente oleada de apoyo, que fue en realidad fabricada por la capacidad de generar grandes volúmenes de contenidos que parecen creíbles.

Sesgos

GenAI también despierta preocupaciones por discriminación y sesgos. Si los datos de entrenamiento usados para crear el modelo generativo contienen información sesgada o discriminatoria, el modelo a su vez producirá outputs sesgados u ofensivos. Esto podría perpetuar estereotipos nocivos y contribuir a violaciones de la privacidad de ciertos grupos. De entrenarse a un modelo de GenAI con un conjunto de datos que contiene patrones de lenguaje sesgados, podría producir textos que refuerzan los estereotipos de género. Podría, por ejemplo, asociar ciertas profesiones o roles con un género particular, incluso cuando no hay ninguna conexión inherente. Si un modelo de GenAI es entrenado con un conjunto de datos con una representación racial o étnicamente distorsionada, podría producir imágenes que involuntariamente muestren a ciertos grupos de modo negativo o estereotipado. De ser entrenados con conjuntos de datos sesgados o discriminatorios, estos modelos podrían asimismo producir contenidos que son culturalmente insensibles o que emplean términos peyorativos. La GenAI de texto a imagen desfigura los rasgos de una “mujer negra” en gran cantidad, lo que resulta dañino para los grupos así distorsionados. Esto se debe a la sobrerrepresentación de grupos no negros en los conjuntos de datos de entrenamiento. Una solución sería tener conjuntos de datos más balanceados y diversos en lugar de contar únicamente con datos de lenguaje occidentales y en inglés, que contendrían sesgos occidentales y crearían sesgos por carecer de otras perspectivas y lenguas. Otra sería entrenar al modelo para que los usuarios no puedan “abrirlo” para que vomite contenidos racistas o inapropiados.

Sin embargo, la cuestión del sesgo se extiende más allá de unos datos de entrenamiento que son abiertamente racistas o sexistas. Los modelos de IA extraen conclusiones a partir de puntos de datos, de modo tal que un modelo de IA podría examinar los datos de las contrataciones y ver que el grupo demográfico que más éxito ha tenido en ser contratado en una compañía tecnológica son varones blancos, y concluir así que éstos son los más calificados para trabajar en una compañía de estas, cuando en realidad la razón por la cual son más exitosos podría ser que no enfrentan las mismas barreras estructurales que afectan a otros grupos, como el no poder pagar un título tecnológico, tener que enfrentar el sexismo en los salones, o el racismo del departamento de contrataciones.

Privacidad

La GenAI hace que surjan varias preocupaciones en torno a la privacidad. Una de ellas es que los conjuntos de datos podrían contener información sensible o personal. Ésta podría quedar expuesta o ser mal empleada a menos que haya sido anonimizada o protegida debidamente. Como se espera que los outputs de GenAI sean realistas, los contenidos generados que semejan personas reales podrían usarse para volver a identificar a personas cuyos datos debían ser anonimizados, minando también así las protecciones de privacidad. Es más, durante el proceso de entrenamiento los modelos de GenAI podrían involuntariamente aprender y memorizar partes de sus datos de entrenamiento que incluyen información sensible o privada. Esto podría generar una filtración de datos cuando se generan nuevos contenidos. Los decisores de políticas y las mismas plataformas de GenAI aún no han resuelto el problema de cómo proteger la privacidad en los conjuntos de datos, outputs, o incluso de los mismos prompts, que pueden incluir datos sensibles o reflejar las intenciones de un usuario de modos que podrían resultar dañinos de no ser seguros.

Copyright y propiedad intelectual

Uno de los principales motivos de preocupación en torno a GenAI es quién posee el copyright de los trabajos que genera. Las leyes de copyright atribuyen la autoría y la propiedad a los creadores humanos. Sin embargo, determinar la autoría, el pilar fundamental del copyright, en el caso de los contenidos generados por IA resulta difícil. No queda claro si el creador debiera ser el programador, el usuario, el sistema de IA mismo, o una combinación de estas partes. Los sistemas de IA aprenden a partir de contenidos con copyright para generar nuevas obras que se parezcan a los materiales protegidos por los derechos de autor. Esto hace que surjan preguntas acerca de si el contenido generado por la IA debiera considerarse algo derivado, y que por ende infringe el derecho del tenedor del copyright original, o si el uso de GenAI debiera ser considerado un uso justo, que permite emplear de modo limitado materiales protegidos por los derechos de autor sin permiso de quien tiene el copyright. Como la tecnología aún es nueva, los marcos legales para juzgar su uso justo contra la violación de los derechos de autor siguen en evolución y podrían verse de distinto modo, dependiendo de la jurisdicción y de su cultura legal. Mientras este corpus legal se desarrolla, debiera equilibrarse la innovación con un justo trato a los creadores, los usuarios y los programadores de los sistemas de IA.

Impactos sobre el medio ambiente

Entrenar a los modelos de GenAI, y el uso y transmisión de datos, utiliza recursos computacionales significativos, a menudo con hardware que consume energía y que puede contribuir a las emisiones de carbono si no funciona con fuentes renovables. Estos impactos pueden mitigarse en parte mediante el uso de energía renovable y optimizando los algoritmos para reducir la demanda de capacidad de procesamiento.

Acceso desigual

Aunque el acceso a las herramientas de GenAI está difundiéndose más, el surgimiento de esta tecnología corre el riesgo de ampliar la brecha tecnológica entre aquellos que tienen acceso a esta tecnología y quienes no lo tienen. Hay varias razones por las cuales el acceso desigual —y sus consecuencias— podría ser particularmente pertinente en el caso de GenAI:

  • La capacidad de procesamiento requerida es enorme, lo que podría llevar al límite a la infraestructura de los países que tienen un inadecuado suministro energético, acceso a internet, almacenaje de datos o informática en la nube.
  • Los países de ingresos bajos y medios (LMIC) pueden carecer del conjunto de alto talento técnico necesario para la innovación e implementación de la IA. Un informe sugiere que todo el continente africano tiene 700,000 programadores en comparación con California, que tiene 630,000. Este problema se ve exacerbado por el hecho que una vez calificados, los programadores de los LMIC a menudo parten a otros países en donde pueden ganar más.
  • La corriente principal de modelos que miran al consumidor como ChatGPT fueron entrenados con un puñado de lenguajes, entre ellos inglés, español, alemán y chino, lo que quiere decir que las personas que buscan usar GenAI en estas lenguas tienen ventajas de acceso que no tienen los hablantes de suajili, por ejemplo, para no decir nada de los dialectos locales.
  • Localizar a GenAI requiere grandes cantidades de datos del contexto particular, y los entornos con bajos recursos a menudo dependen de los modelos diseñados por las más grandes compañías tecnológicas de los Estados Unidos o China.

El resultado final podría ser el desempoderamiento de los grupos marginados, que tienen menos oportunidades y medios para compartir sus historias y perspectivas a través de contenidos generados por la IA. Como dichas tecnologías podrían mejorar las perspectivas económicas de una persona, el acceso desigual a GenAI podría a su vez incrementar la desigualdad económica, pues quienes tienen acceso pueden participar en expresión creativa, generación de contenidos e innovación empresarial de modo más eficiente.

Inicio

Preguntas

Hágase las siguientes preguntas si está pensando llevar a cabo un proyecto y está considerando si usar GenAI en él:

  1. ¿Hay casos en que la interacción individual entre personas podría ser más eficaz, más empática e incluso más eficiente que si se usa la IA en las comunicaciones?
  2. ¿Qué preocupaciones éticas podría generar el uso de GenAI, ya sea de privacidad o por sesgos? ¿Pueden mitigarse?
  3. ¿Podrían emplearse las fuentes locales de datos y contenido para crear una GenAI localizada?
  4. ¿Hay medidas legales, reguladoras o de seguridad que le protegerán del mal uso de GenAI, y que protegerán a las poblaciones que podrían ser vulnerables a dicho mal uso?
  5. ¿Pueden la información sensible o de propiedad privada ser protegidas en el proceso de desarrollo de conjuntos de datos como datos de entrenamiento para los modelos de GenAI?
  6. ¿De qué modos puede la tecnología de GenAI cubrir la brecha digital e incrementar el acceso digital en una sociedad dependiente de la tecnología (o a medida que las sociedades se hacen más dependientes de ésta)? ¿Cómo podemos mitigar la tendencia de las nuevas tecnologías de GenAI a ampliar la brecha digital?
  7. ¿Hay formas de conocimientos digitales para los miembros de la sociedad, la sociedad civil o una clase política que puedan mitigar los riesgos de deepfakes o de textos de desinformación generados a gran escala?
  8. ¿Cómo podría mitigar los impactos medioambientales negativos asociados con el uso de GenAI?
  9. ¿Podría GenAI usarse para personalizar los enfoques educativos, el acceso al gobierno y la sociedad civil, y las oportunidades para la innovación y el progreso económico?
  10. ¿Los datos de su modelo fueron entrenados con datos precisos, representativos de todas las identidades, incluyendo grupos marginados? ¿Qué sesgos inherentes podría tener el conjunto de datos?

Inicio

Estudios de caso

GenAI surgió en la primera mitad de 2023 de un modo mayormente difundido y orientado al consumidor, lo que limitó el número de estudios de casos del mundo real. Esta sección sobre dichos estudios incluye por ello casos en donde las formas de GenAI resultaron problemáticas en términos de engaños o desinformación; formas en que ella podría concebiblemente afectar a todos los sectores, la democracia inclusive, para incrementar las eficiencias y el acceso; y experiencias o discusiones de los tradeoffs entre privacidad e innovación específicos a enfoques nacionales.

Experiencias con la desinformación y la decepción

En Gabón, un posible deepfake tuvo un papel significativo en la política del país. El presidente supuestamente tuvo un derrame pero no había sido visto en público. El gobierno finalmente emitió un video la víspera del año nuevo de 2018, que buscaba calmar las preocupaciones en torno a su salud, pero los críticos sugirieron que en las imágenes tenía patrones de pestañeo y expresiones faciales no auténticas, y que se trataba de un deepfake. Los rumores de que el video era falso proliferaron, lo que hizo que muchos concluyeran que el presidente no gozaba de buena salud, lo que a su vez llevó a un intento de golpe debido a la creencia en que la capacidad del presidente para resistir al intento de derrocamiento estaría debilitada. El ejemplo muestra las serias ramificaciones que la pérdida de confianza tiene en el entorno informativo.

En marzo de 2023, una imagen hecha con GenAI del papa con una chaqueta puffer de Balenciaga se hizo viral en internet, engañando a los lectores debido al parecido de la imagen con el pontífice. Balenciaga había tenido una violenta reacción varios meses antes debido a una campaña publicitaria que mostraba a niños con arneses y bondage. Que el papa al parecer vistiera con Balenciaga implicaba que él y la Iglesia Católica abrazaban dichas prácticas. El consenso en internet finalmente concluyó que se trataba de un deepfake, tras identificar señales reveladoras como una borrosa taza de café y los problemas de resolución con el párpado del papa. Ello no obstante, el incidente mostró con qué facilidad se pueden generar estas imágenes y engañar a los lectores. También mostró la forma en que las reputaciones pueden quedar manchadas debido a un deepfake.

En septiembre de 2023, la Microsoft Threat Initiative presentó un informe que señalaba numerosos casos de operaciones de influencia en línea. Microsoft identificó antes de las elecciones de 2022, que cuentas de medios sociales afiliadas al Partido Comunista de China (PCC) estaban haciéndose pasar por votantes estadounidenses y respondiendo a comentarios, para así influir en las opiniones a través del diálogo y la persuasión. En 2023, Microsoft observó entonces el uso de imágenes creadas con IA, que mostraban imágenes estadounidenses como la Estatua de la Libertad bajo una luz negativa. Estas imágenes tenían las huellas de la IA, como el número errado de dedos en una mano, mas a pesar de todo eran provocadoras y convincentes. A comienzos de marzo de 2023, Meta halló también al PCCh involucrado en una operación de influencia publicando comentarios críticos de la política exterior estadounidense, a los que Meta logró identificar debido a los tipos de grafías y de errores gramaticales en combinación con la hora del día (horas apropiadas para China antes que para los EE.UU.).

Aplicaciones actuales y futuras

A medida que las herramientas de GenAI mejoran se irán haciendo aún más eficaces para estas campañas de influencia en línea. Por otro lado, las aplicaciones con resultados positivos también se irán haciendo más eficaces. GenAI, por ejemplo, irá cubriendo cada vez más las brechas en los recursos del gobierno. Un estimado de cuatro billones de personas carecen de los servicios básicos de salud, y una limitación significativa es el bajo número de proveedores del cuidado de salud. Si bien GenAI no es un sustituto del acceso directo a un proveedor individual del cuidado de salud, sí puede al menos llenar ciertas brechas en ciertos entornos. Ada Health un chatbot para el cuidado de la salud, funciona con OpenAI y puede comunicarse con las personas con respecto a sus síntomas. ChatGPT ha demostrado su capacidad para pasar los exámenes de calificación médica; si bien no se le debiera usar como un sustituto de un médico, en los entornos limitados en recursos podría al menos brindar una evaluación inicial, ahorrando así costos, tiempo y recursos. En relación con esto, es posible utilizar herramientas análogas en entornos de salud mental. El Foro Económico Mundial reportó en 2021 que un estimado de 100 millones de personas en África tienen depresión clínica, pero que sólo hay 1.4 proveedores de salud por cada 100,000 personas, en comparación con el promedio global de 9 proveedores/100,000 personas. La gente necesitada de cuidado y que no cuenta con mejores opciones confía cada vez más en chatbots de salud mental en tanto se logra implementar un enfoque más completo, porque si bien el nivel del cuidado que pueden brindar es limitado, es mejor que nada. Estos recursos basados en GenAI no están libres de problemas–posibles problemas de privacidad y respuestas subóptimas—, y las sociedades y personas tendrán que establecer si estas herramientas son mejores que las alternativas, pero pueden ser tenidos en cuenta en entornos de recursos limitados.

Otros escenarios futuros involucran el uso de GenAI para incrementar la eficiencia del gobierno en una serie de tareas. Uno de estos escenarios comprende a un burócrata del gobierno formado en economía, y al que se le asigna a trabajar en un programa básico de políticas relacionado con el medio ambiente. Esta persona inicia el programa pero entonces introduce la pregunta en una herramienta de GenAI, la cual ayuda a preparar un borrador de ideas, recuerda a nuestra persona puntos a los que había olvidado, identifica unos marcadores legales internacionales relevantes que son claves, y luego traduce el programa del inglés al francés. Otro escenario involucra a un ciudadano que intenta averiguar en dónde votar, pagar impuestos, aclarar los procedimientos gubernamentales, entender las políticas en el caso de ciudadanos que están intentando decidir entre candidatos, o explicar ciertos conceptos de políticas. Estos escenarios ya son posibles y accesibles a todo nivel dentro de la ciudad, y sólo irán haciéndose más prevalentes a medida que las personas se vayan familiarizando con la tecnología. Es, sin embargo, importante que los usuarios entiendan las limitaciones de la tecnología y cómo usarla de modo apropiado para prevenir situaciones en las cuales estén propagando desinformación, o no logren hallar información precisa.

En un contexto electoral, GenAI puede ayudar a evaluar aspectos de la democracia, como la integridad electoral. Por ejemplo, la tabulación manual de votos toma tiempo y es onerosa. Sin embargo, nuevas herramientas de IA han tenido un papel a la hora de establecer el grado de irregularidades electorales. En Kenia se usaron las redes neuronales para “leer” formularios de papel remitidos a nivel local y enumerar el grado de irregularidades electorales, para luego correlacionarlas con los resultados y juzgar si dichas irregularidades fueron el resultado del fraude o de errores humanos. Estas tecnologías podrían en realidad aliviar parte de la carga laboral de las instituciones electorales. En el futuro, los avances realizados por la GenAI podrán proporcionar una visualización de los datos que aliviará aún más la carga cognitiva de los esfuerzos realizados para adjudicar la integridad electoral.

Enfoques del dilema privacidad-innovación

Países como el Brasil han manifestado su preocupación con el posible mal uso dado a GenAI. Tras la presentación de ChatGPT en noviembre de 2022, el gobierno brasileño recibió un detallado informe escrito por expertos académicos y legales, así como por los jefes de compañías e integrantes de un comité nacional de protección de datos, quienes urgieron que dichas tecnologías fueran reguladas. El informe planteó tres motivos principales de preocupación:

  • Que los derechos ciudadanos sean protegidos asegurando que “no haya discriminación y que se corrijan los sesgos directos, indirectos, ilegales o abusivos”, así como que haya claridad y transparencia con respecto a cuándo es que los ciudadanos están interactuando con la IA.
  • Que el gobierno categorice los riesgos e informe a los ciudadanos de los posible riesgos. Según este análisis, los sectores de “alto riesgo” incluían a los servicios esenciales, la verificación biométrica y el reclutamiento laboral, en tanto que el “riesgo excesivo” comprendía la explotación de personas vulnerables y el puntaje social (un sistema que sigue el comportamiento individual en pos de su confiabilidad, y que pone en una lista negra a quienes tienen demasiados deméritos o su equivalente), prácticas ambas que debieran examinarse detenidamente.
  • Que el gobierno dé medidas de gobernanza y sanciones administrativas, primero estableciendo cómo es que se penalizaría a las empresas que las infringieran, y en segundo lugar recomendando una pena del 2% de la renta para un incumplimiento menor, y el equivalente a 9 millones de USD para daños más serios.

En 2023, al momento de escribir estas líneas, el gobierno estaba debatiendo los siguientes pasos, pero el informe y las deliberaciones son ilustrativas de las preocupaciones y recomendaciones dadas en el Sur Global con respecto a GenAI.  

En la India, el gobierno hizo frente a la IA en general, y a GenAI en particular, con una mirada menos escéptica que echa luz sobre las diferencias en cómo es que los gobiernos podrían abordar estas tecnologías, y las bases de dichas diferencias. En 2018, el gobierno indio propuso una Estrategia Nacional para la IA que priorizaba su desarrollo en la agricultura, la educación, el cuidado de la salud, las ciudades y la movilidad inteligentes. En 2020, la Estrategia Nacional de Inteligencia Artificial pidió que todos los sistemas fueran transparentes, responsables y que estuvieran libres de sesgos. En marzo de 2021, el gobierno indio anunció que usaría una regulación de “toque ligero” y que el riego más grande no venía de la IA, sino de no aprovechar las oportunidades que ella presenta. India cuenta con un sector de investigación y desarrollo tecnológicos avanzado que está listo para beneficiarse con la IA. Según el ministro de electrónica y tecnología de la información, promover este sector es “significativo y estratégico”, pero reconoció que se necesitarían algunas políticas y medidas de infraestructura que enfrentaran los sesgos, la discriminación y los problemas éticos.

Inicio

Referencias

Find below the works cited in this resource.

Recursos adicionales

Inicio

Categories

IdC & Sensores

¿Qué es la IdC y qué son los sensores?

La Internet de las Cosas (IdC) se refiere a una red de objetos conectados a través de la internet. Los dispositivos conectados por la IdC incluyen artículos cotidianos como teléfonos, timbres de puertas, autos, relojes y máquinas de lavar. Ella une a estos aparatos para una serie de tareas, procesos y entornos, desde el alumbrado público en una red eléctrica urbana “inteligente” a refrigeradores en un “hogar inteligente”, e incluso a marcapasos “inteligentes” dentro de cuerpos humanos, que forman parte de la llamada categoría de la tecnología inteligente “vestible”. Una vez instalados y conectados, estos aparatos pueden comunicarse entre sí con una reducida participación humana.

Buzo científico en Indonesia. La estructura de monitoreo autónomo de los arrecifes de coral usa sensores para apoyar los esfuerzos de conservación. Crédito de la fotografía: Christopher Meyer.

Un componente integral de la IdC son los sensores, dispositivos que detectan y responden a cambios en un entorno a partir de diversas fuentes como luz, temperatura, movimiento y presión. Cuando se les coloca en dispositivos y se les conecta a una red de IdC, los sensores pueden compartir datos en tiempo real con otros aparatos conectados y sistemas de gestión.

Es importante señalar que la IdC es un un concepto en evolución, que se expande continuamente para incluir más dispositivos e incrementar su nivel de conexión y comunicación.

¿Cómo funciona la IDC y cómo lo hacen los sensores?

Los dispositivos de la IdC se conectan inalámbricamente a una red de internet. Se les da identificadores únicos (UID) y tienen la capacidad de transmitir datos del uno al otro por la red sin intervención humana. Los sistemas de la IdC pueden combinar el uso de los dispositivos vestibles, sensores, robots, analítica de datos, inteligencia artificial y muchas otras tecnologías.
Los sensores por lo general trabajan tomando input como la luz, el calor, presión, movimiento u otro estímulo físico, y convirtiéndolo en un output al cual se puede entonces transmitir a un usuario humano mediante algún tipo de señal o interface (por ejemplo, la pantalla de un termómetro digital o el sonido de una alarma de incendios). El output podría también transmitirse directamente a un sistema más amplio y extenso como una planta industrial. Los dispositivos usualmente tienen múltiples sensores: por ejemplo, un smartphone tiene una pantalla táctil, una cámara, GPS y un acelerómetro para medir la aceleración.

Los sensores pueden ser “inteligentes” o “no inteligentes”, lo que quiere decir que pueden conectarse a la Internet o no. Los inteligentes aceptan inputs de su entorno y los convierten en datos digitales usando capacidades de procesamiento integradas. Estos datos son entonces transmitidos para ser procesados aún más. Tomemos por ejemplo un sistema “inteligente” de riego: se podría usar un medidor de agua conectado a Internet para medir continuamente la cantidad y calidad del agua en un reservorio. Estos datos serían entonces transmitidos en tiempo real a una interface de gestión del agua que un humano podría interpretar para ajustar el suministro de agua, o el sistema de riego podría por el contrario programarse para que se autoajuste sin intervención humana, cerrándose automáticamente cuando el agua cae debajo de cierta calidad o cantidad.

Los sensores inteligentes pueden ser considerados dispositivos de IdC por sí mismos. El sensor de un teléfono móvil que automáticamente ajusta el brillo de su pantalla a partir de la luz ambiental es un ejemplo de sensor inteligente. La detección remota involucra el uso de sensores en aplicaciones en las cuales el instrumento sensor no hace contacto físico con el objeto o fenómeno al cual se está midiendo y grabando, por ejemplo imágenes satelitales, radar, fotografía aérea o videografía con drones. La Administración Nacional de Aeronáutica y el Espacio (NASA) tiene una lista de los tipos de sensores usados en los instrumentos de detección remota. Este breve video presenta una introducción básica a los distintos tipos de sensores.

Inicio

¿De qué modos la IdC y los sensores son relevantes en el espacio cívico y para la democracia?

La IdC ha sido aprovechada para una serie de fines cívicos, humanitarios y de desarrollo, por ejemplo como parte de la infraestructura de las ciudades inteligentes, el manejo del tráfico urbano y los sistemas de control de multitudes, y para la reducción del riesgo de desastres detectando a distancia los riesgos ambientales. La ciudad de Londres ha estado usando la IdC y los sistemas de big data para mejorar los sistemas de transporte público. (Véase la página de Ciudades inteligentes. Estos sistemas manejan demoras inesperadas y averías, informan a los pasajeros directamente de las demoras, crean mapas de rutas comunes mediante datos anonimizados, ofrecen actualizaciones personalizadas a los viajeros, y permiten identificar áreas que mejorar o en donde incrementar la eficiencia. El transporte mediante vehículos autónomos es uno de los ámbitos en donde se espera que la IdC traiga importantes avances.

En la comunidad de Boudry, en Burkina Faso, los smartphones y el GPS están conectados para identificar los linderos de las parcelas de tierra. Crédito de la fotografía: Anne Girardin.

Muchos usos de la IdC están siendo explorados en relación con el cuidado y asistencia de la salud. Por ejemplo, los monitores de glucosa vestibles bajo la forma de parches dérmicos pueden monitorear continua y automáticamente el nivel de glucosa en la sangre de los diabéticos y administrar insulina cuando sea necesario.

Los sistemas de dispositivos equipados con sensores son usados frecuentemente por investigadores, cooperantes y líderes comunitarios para recoger y registrar datos sobre el medio ambiente, por ejemplo la calidad del aire y el suelo, la calidad y los niveles de agua, los niveles de radiación y hasta la migración de los animales.
Los conjuntos de datos de sensores podrían también revelar información nueva e inesperada, que permitirá a la gente contar historias respaldadas por las evidencias que podrían servir al interés público.

Por último, el uso de la IdC, también está siendo explorado en relación con los defensores de los derechos humanos. Los sistemas de IdC equipados con sensores pueden usarse para documentar las violaciones de los derechos humanos y recoger datos acerca de ellas. Un brazalete diseñado por el Natalia Project automáticamente detona una alerta cuando se le retira a la fuerza o el usuario lo activa. El brazalete usa GPS y redes móviles para enviar un mensaje de peligro predefinido, junto con su ubicación y una marca de hora a voluntarios presentes en las cercanías, así como a la sede de Civil Rights Defenders, una ONG sueca.

Sin embargo, junto a estas fascinantes aplicaciones vienen también unas serias preocupaciones. Los dispositivos digitales tienen vulnerabilidades inherentes, y vincular los dispositivos a la Internet y entre sí intensifica las amenazas de seguridad como el acoso, las filtraciones de datos y las violaciones de la privacidad personal. Los sensores de la IdC pueden usarse para monitorear y vigilar a comunidades de minorías vigilando a las organizaciones , lo que podría llevar a violaciones de los derechos civiles. Estas preocupaciones y otras implicaciones de una red inmensa y omnipresente de dispositivos de recolección de datos se exploran en la sección Riesgos.

Inicio

Oportunidades

Investigadores biólogos en Madidi, Bolivia, arman una cámara para fotografiar jaguares usando un sensor que detecta el calor corporal. Crédito de la fotografía: Julie Larsen Maher, Wildlife Conservation Society

La IdC y los sensores pueden tener impactos positivos cuando se les usa para promover la democracia, los derechos humanos y las cuestiones de gobernanza. Lea a continuación para aprender cómo pensar de modo más eficaz y seguro acerca de la IdC y los sensores en su trabajo.

Monitoreo y evaluación

Los sistemas de la IdC pueden facilitar el monitoreo continuo de pequeños detalles intrincados, y transmitir estos datos a sistemas que pueden analizarlos y evaluarlos en tiempo real. Este tipo de monitoreo tiene muchas implicaciones para la eficiencia y la sostenibilidad de los recursos. En Mongolia se han usado sensores de temperatura baratos para monitorear y evaluar un programa de subsidios que ofrecía estufas energéticamente eficientes para calefacción doméstica. Las estufas buscaban reducir la contaminación del aire y el gasto de combustible. La información obtenida de los sensores llevó a la conclusión de que la eficiencia energética efectivamente se había alcanzado aún cuando el consumo de carbón en los hogares examinados se mantuvo constante. Otros ejemplos de monitoreo gracias a sensores incluyen a Riffle (Remote, Independent Field Friendly Logger Electronics), un conjunto de diseños de instrumentos de código abierto que permiten a las comunidades recoger datos y monitorear la calidad de su agua. Los diseños despliegan distintos tipos de sensores para medir parámetros tales como la temperatura, profundidad, turbidez y conductividad del agua. Riffle forma parte del Open Water Project de Public Lab.

Sistemas de seguridad y protección

Cuando se instalan legalmente en hogares privados y centros de trabajo, los sistemas de IdC pueden dar seguridad. Las cerraduras inteligentes, las cámaras de video y los detectores de movimiento pueden usarse para alertar de o prevenir posibles intrusiones, en tanto que los detectores de humo y los termostatos pueden alertar de y reaccionar al fuego, la calidad peligrosa del aire, etc. Los “hogares inteligentes” anuncian estos beneficios de seguridad. Por ejemplo, un videotimbre puede enviar una alerta a su smartphone cuando se detecta movimiento y grabar un video de quién o qué lo detonó para su examen posterior. Las cerraduras inteligentes les permiten abrir y cerrar sus puertas a distancia, o dar acceso a los invitados con un app o keypad. Estas comodidades de seguridad doméstica vienen, claro está, con sus propias preocupaciones. El sistema de seguridad doméstica Ring de Amazon ha estado en los titulares múltiples veces debido a la aparición de historias de hackeo y de vulnerabilidades.

Sistemas de alerta temprana

Cuando se les empareja con la analítica de datos y la inteligencia artificial, los sistemas de IdC pueden ayudar con advertencias tempranas acerca de riesgos ambientales o de salud, por ejemplo acerca de la posibilidad de inundaciones, terremotos o incluso de la propagación de enfermedades infecciosas como el Covid-19. La compañía Kinsa Health ha logrado aprovechar los datos reunidos por sus termómetros conectados a Bluetooth para producir mapas diarios de qué condados de los EE.UU. estaban viendo un incremento en fiebres altas, ofreciendo así indicaciones en tiempo real de dónde podría estar concentrándose la enfermedad. Las redes de sensores, en combinación con la analítica de datos, pueden ser usadas por gobiernos y ecólogos para detectar cambios ambientales que podrían indicar una amenaza emergente — por ejemplo, un peligroso incremento en el nivel del agua o un cambio en la calidad del aire—, información que puede analizarse y compartirse rápidamente para entender mejor, responder a y alertar a otros de la amenaza.

Vehículos autónomos

Al permitir que los vehículos se comuniquen entre sí y con la infraestructura vial —como semáforos, estaciones de carga eléctrica, asistencia vial y hasta autopistas con sensores—, la IdC podría mejorar la seguridad y eficiencia del transporte vial. Los vehículos autónomos tienen un largo camino que recorrer (tanto en lo que respecta a la tecnología y la seguridad, como a los marcos legales necesarios para su funcionamiento apropiado), pero la IdC está haciendo que estos vehículos sean una posibilidad, lo que trae nuevas oportunidades para compartir autos, el transporte urbano y los servicios de entrega.

Inicio

Riesgos

El uso de la IdC y de los sensores puede también crear riesgos para los programas de la sociedad civil. Lea a continuación cómo discernir los posibles riesgos asociados con el uso de estas tecnologías en el trabajo DRG.

Vigilancia de masas y acoso

Los sistemas de IdC generan grandes cantidades de datos, que en ausencia de una protección adecuada fueron usados por gobiernos, entidades comerciales u otros actores para la vigilancia de masas. Los sistemas de IdC que recogen datos de su entorno pueden recoger datos personales acerca de humanos sin su conocimiento o consentimiento, o procesarlos y combinarlos de modo invasivo y no consensual. En conjunción con las capacidades de monitoreo, los sistemas de IA (por ejemplo, el reconocimiento facial y de emociones) y el análisis de big data, los sistemas de IdC presentan oportunidades para la vigilancia de masas y potencialmente para fines represivos que dañan los derechos humanos y civiles. En efecto, los gobiernos autoritarios tienen un historial de usar los dispositivos de IdC y las llamadas ‘ciudades inteligentes’ como métodos de opresión y de acallar el disenso.

Preocupaciones con la privacidad, la protección de datos y la seguridad

La Comisión Federal de Comercio (FTC) de los Estados Unidos (FTC) identificó tres problemas claves que la IdC presenta a la privacidad de los consumidores (2015): la recolección ubicua de datos, el potencial para usos inesperados de los datos de los consumidores, y riesgos de seguridad intensificados. Los sistemas de IdC generan inmensas cantidades de datos y crean grandes conjuntos de ellos. Por otro lado se sabe que las aplicaciones de la IdC, sobre todo las aplicaciones de consumidores, tienen vulnerabilidades de privacidad y seguridad, riesgos que se ven magnificados por la cantidad y la naturaleza potencialmente sensible de los datos involucrados. Información aparentemente inocua, o que fue recolectada sin la plena conciencia de las personas involucradas, puede plantear serias amenazas. Por ejemplo, una visualización de las rutas de ejercicio de los usuarios, publicada por una app de monitoreo de fitness, expuso la ubicación y la dotación de personal de las bases militarse de los EE.UU., así como bases secretas dentro y fuera del país.

Las entidades comerciales podrían usar los datos obtenidos de los sistemas de IdC para influir en el comportamiento de los consumidores, por ejemplo mediante publicidad focalizada. En efecto, los sensores en las tiendas están siendo usados cada vez más para aprovechar los datos sobre los usuarios a partir de su comportamiento de compras dentro de las tiendas.

Para información adicional sobre la privacidad, la protección de datos y los asuntos de seguridad véanse también los recursos de Protección de datos, Big Data e Inteligencia artificial.

Mayor riesgo de ciberataques

Se sabe que el hardware y software de los dispositivos de la IdC son sumamente vulnerables a los ciberataques, y los ciberdelincuentes intentan activamente explotar estas vulnerabilidades de seguridad. Incrementar el número de dispositivos en una red de IdC significa incrementar la superficie para los ciberataques. Dispositivos comunes como impresoras conectadas a Internet, cámaras web, enrutadores de red y equipos televisivos son usados por los ciberdelincuentes con fines maliciosos, como la ejecución de ataques de denegación de servicio distribuidos (DDoS) coordinados contra páginas web, la distribución de malware y la ruptura de la privacidad de particulares. Ha habido numerosos incidentes de hackers que logran acceder a la transmisión de las cámaras y micrófonos de seguridad domésticos, e incluso de los monitores que permiten a los padres ver a sus hijos mientras no se encuentran en casa. Estos incidentes generaron una demanda para que se regule a las entidades que diseñan, fabrican y emplean dispositivos y sistemas comerciales de la IdC.

Asuntos éticos no explorados

El uso cada vez más grande de la automatización trae consigo preguntas y preocupaciones éticas que podrían no haber sido consideradas antes del arribo de la tecnología misma. He aquí unos cuantos ejemplos: ¿los dispositivos inteligentes del hogar reconocerán los comandos de voz dados por personas que hablan distintos lenguajes, dialectos y hasta con diferentes acentos? ¿Será apropiado recoger datos de grabaciones de voz en estos otros dialectos y acentos —de modo plenamente consensual y ético— a fin de mejorar la calidad del dispositivo y su capacidad de servir a más personas?

Los datos obtenidos de los dispositivos de la IdC también están siendo usados cada vez más como evidencia digital en los juzgados o con otros fines judiciales, lo que plantea interrogantes acerca de la ética e incluso la legalidad de dichos usos, así como acerca de su precisión e idoneidad como evidencias.

La dependencia del proveedor, la interoperabilidad insuficiente entre redes y el reto de conseguir el consentimiento informado de los sujetos de datos debe asimismo tenerse en cuenta. Véase más acerca de estos riesgos en los recursos sobre la ID digital y la Protección de datos [¿?: Data Protection].

Inicio

Preguntas

Hágase estas preguntas si está intentando entender las implicaciones de la IdC y los sensores en su entorno laboral, o si está considerando emplear algunos aspectos de la IdC y las tecnologías afines, como parte de sus programas de DRG:

  1. ¿Los dispositivos conectados a la IdC son herramientas idóneas para el problema que está intentando resolver? ¿Cuáles son los indicadores o factores directrices que determinan si el uso de la IdC o de una tecnología de sensor es una solución idónea y requerida para un problema o reto particular?
  2. ¿Qué datos serán recogidos, analizados, compartidos y almacenados? ¿Quién más tendrá acceso a esta información? ¿Cómo estarán protegidos? ¿Cómo puede asegurarse de recoger el monto mínimo de datos necesarios?
  3. ¿Se está recogiendo algún dato personal o sensible? ¿Cómo obtiene el consentimiento informado en este caso? ¿Hay la posibilidad de que los dispositivos de su red combinen conjuntos de datos y que juntos creen información sensible o personalmente identificable?
  4. ¿Las tecnologías y redes que usa son lo suficientemente interoperables como para que traiga nuevas tecnologías y hasta nuevos proveedores a la red? ¿Están diseñadas con estándares abiertos y con la portabilidad en mente? ¿Hay algún riesgo de quedar atrapado con un proveedor particular de tecnología?
  5. ¿Cómo está abordando los riesgos de vulnerabilidades o fallos en el software? ¿Cómo podría mitigar estos riesgos desde el principio? Por ejemplo, ¿es necesario que estos dispositivos se conecten a la internet? ¿Pueden conectarse más bien a una intranet privada o a una red de internet de pares?

Inicio

Estudios de caso

Instructor en Tanzania, en donde los datos captados por GPS pueden usarse para mapear y asignar títulos de tierras. Crédito de la fotografía Riaz Jahanpour para USAID / Digital Development Communications
La IdC mejorará el proceso de fortificar la harina con nutrientes claves

La IdC mejorará el proceso de fortificar la harina con nutrientes claves

Sanku (Project Healthy Children), una organización que busca poner fin a la malnutrición en todo el mundo, está equipando a molinos de harina pequeños en África con la tecnología de la IdC, para así proporcionar nutritiva harina fortificada a millones de personas. Los datos de la producción diaria son enviados en tiempo real a través del enlace celular a un panel que permite a la organización monitorear el desempeño de los molinos. Los datos recogidos incluyen la harina producida, los nutrientes distribuidos y toda cuestión técnica con la performance de las máquinas. “La IdC nos está permitiendo automatizar íntegramente nuestras operaciones y la forma en que administramos nuestro negocio… Ya no es un problema intentar establecer qué molinos necesitan ser visitados, qué dosificadores requieren mantenimiento, y cuándo se deben entregar los productos para evitar que se agote el inventario”.

El Guardian Project desarrolla apps para los defensores de los derechos humanos

Proof Mode de Guardian Project, es una aplicación de cámaras de código abierto para dispositivos móviles diseñada para activistas, defensores de los derechos humanos y periodistas. Cuando se toma una foto o video usando el dispositivo, la app recoge tantos metadatos como sea posible, como por ejemplo una marca temporal, la identidad del aparato y la ubicación de los distintos sensores presentes en el dispositivo. La app también agrega una firma digital públicamente verificable al archivo de metadatos, todo lo cual finalmente brinda al usuario una evidencia digital segura y verificable.

Haven, otra app de Guardian Project, usa los sensores presentes en un dispositivo móvil como el acelerómetro, la cámara, micrófono, sensor de proximidad y batería (estatus de encendido) para monitorear los cambios en los alrededores de un teléfono. Estos cambios a) se guardan como archivos de imágenes y sonido, b) son registrados en un log de eventos al cual se puede acceder a distancia o en cualquier momento posteriormente, y c) se usan para gatillar una alarma o para enviar notificaciones seguras acerca de intrusiones o actividades sospechosas. Los programadores de la app explican que Haven está diseñada para periodistas, defensores de los derechos humanos y para personas en riesgo de desaparición forzada.

Sensores de temperatura para medir comportamientos de uso de estufas en Ulán Bator

Sensores de temperatura para medir comportamientos de uso de estufas en Ulán Bator

“…[E]n una evaluación de impacto del [programa de subsidios]… que buscaba reducir la contaminación del aire y disminuir el gasto en combustible mediante la distribución subsidiada de estufas de calefacción más eficientes en su uso del combustible… [p]ara recoger medidas precisas y no sesgadas del comportamiento de uso de las estufas, se colocaron pequeños sensores de temperatura (monitores del uso de la estufa o SUM) en un subconjunto de los hogares sondeados … Los datos de los SUM sobre la temperatura ambiente también indicaron que los hogares con estufas [del programa de subsidios] eran mantenidos más calientes que los que tenían las estufas tradicionales, pero el combustible usado era en promedio el mismo. Esto sugiere que los hogares estaban utilizando la eficiencia con el combustible para elevar la temperatura de la casa, a sabiendas o no. Al final, los sensores de temperatura baratos fueron cruciales para recoger datos precisos de resultados inesperados y para explicarlos”.

Usando sensores de IdC para el cuidado de la salud

Usando sensores de IdC para el cuidado de la salud

Los sensores de IdC, al igual que los monitores cardíacos o los sleep trackers vestibles, pueden ayudar a los profesionales del cuidado de la salud en el tratamiento de los pacientes. Los monitores usan sistemas conectados de información para analizar datos de salud relevantes para enfermedades como Parkinson, Alzheimer y dolencias cardíacas, ayudando a los médicos a entender patrones y proporcionar así un mejor suministro del servicio del cuidado de la salud. Al brindar un cuidado preventivo, los sistemas del cuidado de salud pueden reducir los costos y ampliar el servicio a una gama más amplia de pacientes.

Sensores de movimiento para monitorear la funcionalidad de bombas de mano en Ruanda, estudio de caso 3

Sensores de movimiento para monitorear la funcionalidad de bombas de mano en Ruanda,  estudio de caso 3
“En el proyecto piloto destacado en Ruanda, más de 200 sensores fueron instalados en bombas de agua, transmitiéndose inalámbricamente los datos de cada sensor a través de la red celular a un panel para el equipo de operaciones y mantenimiento. El panel muestra el estatus en tiempo real de cada bomba provista de un sensor. Esto permite que los equipos de operaciones y mantenimiento empleen un modelo “ambulancia”, despachando equipos sólo a los puntos de agua marcados para reparaciones o chequeos”.

Inicio

Referencias

A continuación encontrará los trabajos citados en este recurso.

Recursos adicionales

Inicio

Categories

Satélite

Irvine03 CubeSat Source: https://ipsf.net/news/nasa-selects-irvine03-cubesat-for-launch-mission/

¿Qué es un satélite?

Un satélite es un objeto que orbita alrededor de un planeta o estrella; puede ser un cuerpo natural como la Luna que orbita a la Tierra, o un objeto artificial desplegado por los humanos con diversas funciones, entre ellas las comunicaciones, la observación de la Tierra, la navegación y la exploración científica.

Si bien la Tierra tiene un satélite natural —la Luna—, varios miles de satélites artificiales orbitan alrededor de ella. Estos satélites de fabricación humana van desde cubos de 10 centímetros que pesan alrededor de un kilogramo y a los que se denomina SmallSats, hasta la Estación Espacial Internacional. Cada uno lleva instrumentos con que efectuar tareas específicas, como conectar puntos lejanos mediante los enlaces de telecomunicaciones y observar la superficie terrestre.

NASA & STS-132 Crew: vista de la Estación Espacial Internacional Source: https://images.nasa.gov/details-s132e012208

¿Cómo funcionan los satélites?

Los satélites utilizan instrumentos especializados para efectuar aplicaciones como las comunicaciones, la observación de la Tierra, navegación e investigación científica, recogiendo y transmitiendo datos relevantes a las estaciones en tierra mientras se les maneja y controla a distancia.

En su nivel más elemental, los sistemas de satélites tienen tres segmentos componentes: el segmento espacial, el terrestre y el enlace de datos entre ambos. En los sistemas satelitales que comprenden múltiples objetos espaciales hay también un enlace de datos entre los satélites. Y dado que los que se encuentran en la órbita terrestre pueden estar a varios miles de kilómetros del ser humano más cercano, todos los instrumentos, herramientas y combustible que podrían necesitar deben ser cargados en la máquina al inicio. Esto hace que sea más difícil cambiar la misión primaria de un satélite, pero distintos usuarios finales podrían emplear los mismos datos derivados de ellos de distintos modos.

El segmento terrestre usualmente es una estación terrestre que recibe señales de radiofrecuencias de los satélites, pero algunos sistemas tienen múltiples estaciones terrestres o incluso transmiten los datos directamente a los usuarios finales. Por ejemplo, aunque las estaciones pueden constar de acres de instalaciones de antenas y de procesamiento de datos, una antena parabólica de televisión o un teléfono satelital son dos tipos de estaciones terrestres personales.

¿Qué es una órbita?

Diagrama de las órbitas alrededor de la Tierra Source: https://earthobservatory.nasa.gov/ContentFeature/OrbitsCatalog/images/orbits_schematic.png

Las órbitas son el resultado de dos objetos en el espacio que interactúan con precisamente el equilibrio correcto de la gravedad y el momento. Si un satélite tiene demasiado momento superará la gravedad terrestre, se saldrá de órbita y entrará al espacio profundo; si tiene muy poco, será jalado dentro de la atmósfera del planeta. El objeto viajará en una pista predecible infinitamente repetida alrededor de la Tierra siempre y cuando su momento se mantenga constante. No todos los satélites tienen el mismo momento, y por ende orbitan el planeta siguiendo distintas rutas.

Estas órbitas están agrupadas en general según su altitud por encima de la superficie terrestre. Estas categorías son, de la más baja a la más alta, la órbita terrestre baja (LEO), órbita terrestre media (MEO) y la órbita ecuatorial geoestacionaria o geosíncrona (GEO). Aunque no hay un “borde” globalmente reconocido del espacio, usualmente se considera que la órbita terrestre baja es la región por debajo de los 1000 km por encima de la superficie terrestre.

A las más bajas alturas los satélites deben usar sistemas de propulsión a bordo para superar los efectos de la atmósfera terrestre, la cual los saca de órbita. Cuando un satélite no puede superar este arrastre, sale de órbita y a menudo se incendia al reingresar a la atmósfera de la Tierra. A veces los satélites o sus partes componentes sobreviven al reingreso y se estrellan en tierra o en el océano. Recientes avances tecnológicos han permitido a los operadores de los satélites alcanzar su órbita a estas muy bajas alturas. Los que se encuentran en estas órbitas bajas usualmente requieren menos de dos horas para hacer un viaje alrededor de todo el globo. El tiempo que le toma a un satélite dar una vuelta alrededor de la Tierra se conoce como el “periodo”.

En cambio en las órbitas geoestacionarias o geosíncronas toma 24 horas completas dar una vuelta al mundo. Como su periodo mantiene el paso con la rotación de la Tierra, estos satélites parecen estar fijos sobre un punto del planeta salvo que un operador lo haga maniobrar. Las órbitas GEO están a unos 36,000 km por encima de la superficie de la Tierra. La región MEO abarca el espacio restante entre LEO y GEO.

Ciertas altitudes son más idóneas para ciertos tipos de tareas que otros. Por ejemplo, como los satélites en LEO se encuentran tan cerca de la superficie de la Tierra, ninguno de ellos puede proporcionar una cobertura amplia de toda la superficie terrestre. Los que están en MEO y GEO pueden “ver” más de la superficie de la Tierra en cualquier punto temporal en virtud a su distancia de la Tierra. Al área del planeta que un satélite puede observar o atender se le conoce como su “field of regard” (campo de consideración). El tamaño de este campo es un factor importante a la hora de decidir cuántos satélites un operador habrá de necesitar para suministrar un servicio, y qué tan alto debieran estar en órbitat.

Imagen satelital del monte Merapi, Indonesia Source: https://www.planet.com/gallery/#!/post/mount-merapi-fumes
Megaconstelaciones y avances modernos

Los primeros satélites eran máquinas relativamente pequeñas que efectuaban tareas rudimentarias o demostraban una capacidad. Durante los primeros años de la exploración espacial, diseñar y construir uno era un proceso costoso y de largo plazo. Su lanzamiento al espacio era otro paso costoso en el camino al despliegue de un satélite. A medida que los ingenieros fueron ganando experiencia en la construcción y lanzamiento de satélites, estas máquinas fueron creciendo en tamaño y sofisticación. Los ingenieros diseñan enormes satélites que pesan miles de kilogramos para que lleven varios instrumentos, muchos de los cuales siguen en el espacio hoy en día.

El paradigma de construir un objeto grande ha girado hacia la construcción de varios objetos pequeños para efectuar la misma misión. Estos pequeños satélites apoyan la misma misión al unísono, formando redes a las que se llama constelaciones. El concepto de operar constelaciones de satélites no es algo particularmente novedoso: unos ambiciosos planes de negocios de la década de 1980 buscaban aprovechar docenas de satélites para ofrecer servicios de telecomunicaciones globales. Las constelaciones de satélites estaban a menudo diseñadas para brindar una cobertura regional de base, con el potencial para ampliar el alcance del servicio posteriormente. Por ejemplo, el Sistema por Satélite Cuasicenital de Japón utiliza una constelación de cuatro satélites que operan en concierto para brindar servicios de navegación en el Asia-Pacífico. Esta constelación está planeada para ampliarse a siete satélites hacia 2024. El principio de usar muchos satélites al unísono se ha hecho más popular con el tiempo.

El desplome del costo de fabricación y lanzamiento de satélites ha facilitado diseños más exóticos que incluye a miles de ellos, a los que se conoce como megaconstelaciones. Operar a cientos o miles de satélites coordinados en megaconstelaciones ofrece beneficios marcados. Las megaconstelaciones pueden constar de miles de satélites en la zona LEO. Los que se encuentran en esta zona tienen campos de consideración reducidos, lo que quiere decir que sólo pueden atender a una pequeña parte de la superficie terrestre en cualquier momento dado. Añadir otro satélite, o varios, incrementa el área de servicio al ampliar el campo de consideración. Las megaconstelaciones llevan este principio al extremo, uniendo los campos de consideración de miles de satélites individuales para crear todo un mosaico de cobertura. Coordinar y posicionar los satélites con precisión asegura que la red pueda enviar señales a cualquier punto de la Tierra en cualquier momento.

Operar en LEO ofrece otros beneficios. Las megaconstelaciones que orbitan a alturas relativamente bajas pueden enviar y recibir señales de tierra con mayor rapidez que aquellas que se encuentran más lejos de la superficie terrestre. Como la señal no tiene que viajar tanto, las megaconstelaciones LEO reducen el tiempo en que una señal está “en tránsito” entre las estaciones terrestres y las terminales satelitales, lo que se llama “latencia”. Esto facilita unas comunicaciones más rápidas con menos retraso. Las megaconstelaciones con baja latencia pueden ayudar a las organizaciones a ser más eficientes y productivas mientras efectúan la transición a las tecnologías 5G.

Cuanto mayor sea la distancia entre un satélite y la Tierra, tanto mayor energía a bordo necesitará para enviar una señal del espacio a la Tierra. Minimizar la distancia entre los satélites y las estaciones terrestres minimiza también la cantidad de energía a bordo necesaria para producir la señal. Esto a su vez ayuda a reducir el tamaño del satélite, y a menudo también el precio de su fabricación. De este modo, aunque las megaconstelaciones requieren de cientos, si no miles, de satélites para brindar una cobertura global, su precio es generalmente más bajo por unidad. Esto ayuda a sus propietarios a acumular satélites de reemplazo en caso alguno de los activos no lograra llegar a su órbita o se malogren una vez que estén en el espacio.

Las tendencias generales de los satélites a irse abaratando y a que los costos de lanzamiento se precipiten han permitido que surja algo más que megaconstelaciones. La reducción de los costos de fabricación y de poner un satélite en órbita abrió el campo de juego a nuevos actores, en especial a aquellos que podrían haber quedado excluidos de participar en el desarrollo de los sistemas satelitales sólo por el precio. El espacio ya no está restringido a los países de altos ingresos; los de ingresos bajos a medios (LMIC) pueden ahora poseer todo el ciclo de vida del desarrollo de un satélite, lo que incluye el diseño de la misión, su fabricación, pruebas y validación, y operaciones. Los costos relativamente más bajos asimismo permiten a los posibles operarios de los satélites emprender misiones que podrían no haber resultado financieramente atractivas a corporaciones grandes o extranjeras que no comparten las motivaciones sociales.

Ciclos de vida de los satélites /Cuestiones medioambientales /Riesgos de los restos

Además de los miles de satélites operacionales hay millones de pedazos de basura espacial. Los restos orbitales son esencialmente cualquier cosa que esté en órbita que no funcione, lo que incluye todo, desde satélites que ya no están en funcionamiento hasta fragmentos de bulones explosivos usados para separar a las naves espaciales de los motores principales de los cohetes. Se generan nubes de restos cuando dos objetos espaciales chocan, independientemente de si la colisión fue accidental o intencional. Hasta los pedazos sumamente pequeños de los restos son peligrosos: los fragmentos de apenas un centímetro podrían ser letales en una colisión con un satélite operativo. Algunas regiones del espacio están más amenazadas que otras debido a la densidad de los restos, o al potencial para que haya eventos que los generen.

Hay un movimiento emergente para tanto reducir la cantidad de restos creados por las actividades espaciales, como para retirar los abandonados ya existentes. Este énfasis en la sostenibilidad espacial es un buen augurio para el futuro. Ello no obstante, el estado actual del entorno orbital presenta elevados riesgos debido a los restos. El incremento en la población de restos con el paso del tiempo ha impuesto riesgos a los Estados que recién están navegando por el espacio, y que los actores espaciales establecidos no tuvieron que enfrentar. Es más, muchos de los pedazos de restos más peligrosos tuvieron su origen entre los potencias espaciales más establecidas.

Paneles solares del telescopio espacial Hubble mostrando el impacto de restos Source: https://www.esa.int/var/esa/storage/images/esa_multimedia/images/2009/05/esa_built-solar_cells_retrieved_from_the_hubble_space_telescope_in_2002/10102613-2-eng-GB/ESA_built-solar_cells_retrieved_from_the_Hubble_Space_Telescope_in_2002_article.jpg

Inicio

¿De qué modo son los satélites relevantes para el espacio cívico y la democracia?

Los satélites proporcionan servicios y recogen datos que benefician enormemente a la sociedad. Los sistemas satelitales suministran servicios de banda ancha y telecomunicaciones que ofrecen a los ciudadanos una vía no tradicional para la conectividad digital. Esta conectividad es una herramienta valiosa que puede ampliar el acceso de la ciudadanía al espacio cívico, respaldar los procesos democráticos y empoderar la libertad de expresión. Aunque los principios fundamentales y la física que sustentan estas aplicaciones permanecen constantes, los paradigmas novedosos en el diseño de los satélites, como las megaconstelaciones, han reducido el costo del acceso a dichos servicios. Otros tipos de satélites han experimentado un avance tecnológico más linear pero no menos impactante. Mejores sensores ópticos permiten a los satélites tomar imágenes más precisas y claras de la Tierra. Estos datos derivados de satélites son invalorables tanto para responder a las crisis como para la planificación de largo plazo, lo que permite contar con un trabajo de respuesta a las emergencias bien organizado, así como empoderar a los esfuerzos por fortalecer la democracia. Otros sensores permiten a los científicos analizar el impacto del cambio climático y diseñar procesos de remedio más apropiados.

La conectividad de internet célebremente posibilita el activismo y fomenta comunidades de personas con conciencia cívica alrededor del mundo. La conectividad hecha posible por los satélites construye a partir de estas tendencias y ayuda a vincular a los ciudadanos con los servicios sociales y entre ellos. Las redes de internet satelital superan muchos de los retos logísticos que impiden que las redes de banda ancha terrestres atiendan a comunidades rurales o de difícil acceso. Las asociaciones público-privadas han mejorado los servicios en áreas que sufrían por una conectividad de banda ancha mala o inexistente.

Se pueden usar otras herramientas de observación de la Tierra para mejorar los procesos democráticos. Unos mapas detallados derivados de imágenes satelitales pueden usarse para ayudar a prepararse para, ejecutar y analizar los resultados electorales. Los datos de los satélites dan una imagen clara de los mapas electorales, lo que permite a la sociedad civil identificar problemas y proponer cambios significativos. Por ejemplo, los mapas satelitales pueden identificar poblaciones subatendidas y validar nuevos centros de votación en el periodo inmediatamente previo a una elección. Los mapas precisos pueden asimismo revelar tendencias en la votación y, cuando se les superpone con información socioeconómica o demográfica proveniente de otras fuentes, pueden informar los renovados esfuerzos por llegar a los votantes y la estrategia de campaña. La conectividad satelital tiene una
historia probada de facilitar la recolección y transmisión de votos de modo transparente, seguro y oportuno.

Los servicios satelitales apoyan directamente el trabajo de desarrollo en una serie de esfuerzo, lo que incluye el desarrollo agrícola, monitoreo medioambiental, y el mapeo de indicadores socioeconómicos. Estos tipos de datos respaldan tanto la planificación de proyectos como su monitoreo y evaluación. Antes los satélites grandes empleaban enormes sensores ópticos o de otro tipo para recoger datos mientras pasaban sobre la Tierra. La miniaturización de estos sensores permite a los operadores lanzar varios satélites, reduciendo así la cantidad de tiempo que toma volver a visitar un lugar de interés. Los paradigmas emergentes del diseño de sistemas satelitales, como las grandes constelaciones de satélites que observan la Tierra, pueden volver a visitar zonas del planeta con mayor frecuencia, recogiendo así datos que permiten a los investigadores monitorear los cambios con más matices y fidelidad.

El monte Mulanje captado por el sistema ISERV a bordo de la Estación Espacial Internacional
Source: https://www.nasa.gov/image-article/servirs-iserv-image-of-mulanje-massif-malawi/

Las imágenes satelitales y los datos de observación de la Tierra van más allá de tener un impacto en el monitoreo del impacto de los esfuerzos por el desarrollo, y se les podría usar para planificar respuestas a las crisis. Los datos buenos de epidemiología y otras cuestiones de salud pública jamás habían sido más valiosos que hoy, en un mundo postpandémico. Los satélites son fundamentales para la recolección de dichos datos. Se les usa cada vez más para aplicaciones de salud pública, entre ellas la comprensión de los factores subyacentes que tienen un impacto sobre quienes están más en riesgo de padecer una enfermedad. Recientes avances en la recolección de datos satelitales ayudaron a los investigadores a construir una comprensión más profunda y más matizada de los problemas de salud pública. Esto a su vez ayuda las respuestas hechas a medida, y en algunos casos puede complementar los esfuerzos de prevención. Por ejemplo, el análisis de los datos recogidos por los satélites podría ayudar a identificar dónde podría darse el siguiente peligro para la salud pública permitiendo así tomar medidas preventivas. Este tipo de servicio satelital puede hacerse aún más poderoso en conjunción con otras tecnologías emergentes, como los proyectos de inteligencia artificial y aprendizaje automático y big data. Dichos nexos exponen los datos satelitales a las preocupaciones y riesgos inherentes a estas otras tecnologías emergentes.

Imagen compuesta de la Tierra de noche generada con imágenes del espectrorradiómetro de imágenes de media resolución. Este tipo de imagen ha sido usada por investigadores de salud pública para calcular mejor las poblaciones en riesgo

La actual tecnología y servicios satelitales son vulnerables a los esfuerzos autoritarios o antidemocráticos. Dado que los satélites son esencialmente hardware, los ataques físicos siguen siendo una seria amenaza. Las estaciones y terminales terrestres son a menudo blanco de intentos para limitar el acceso de los ciudadanos a la conectividad posibilitada por satélites. Las antenas de televisión y las terminales de internet de los satélites son difíciles de esconder sin reducir su eficacia, lo que hace de ellas blancos fáciles para la policía o los servicios de seguridad antidemocráticos que desean limitar el acceso de la ciudadanía. Los diseños de futuros sistemas no han podido abordar las vulnerabilidades que las terminales actuales tienen. En algunos casos extremos, las señales de los satélites podrían ser interferidas para prevenir que los ciudadanos accedan a un servicio. Las regulaciones domésticas constituyen otro obstáculo. Los Estados mantienen su jurisdicción to prevent citizens from accessing a service. Domestic regulations pose another hurdle. States maintain jurisdiction sobre la radiofrecuencia del espectro dentro de sus fronteras, y pueden usar procesos de licenciamiento y reguladores para controlar qué tipo de sistemas de conectividad están a disposición de sus ciudadanos y visitantes extranjeros.

Inicio

Oportunidades

Los satélites pueden tener impactos positivos cuando se les usa para promover la democracia, los derechos humanos y las cuestiones de gobernanza. Lea a continuación cómo reflexionar de modo más eficaz y seguro sobre cómo usar los satélites en su trabajo.

Sáltese un paso

Muchos ciudadanos en desiertos digitales pueden ahora evitar los métodos de conectividad tradicionales y saltarse el obstáculo para beneficiarse de la conectividad posibilitada por los satélites. Una mejor conectividad de internet brinda una nueva vía para que los ciudadanos se beneficien con los servicios civiles y tomen parte en el discurso político. El acceso a internet puede expandirse sin necesidad de proyectos de infraestructura locales costosos e intensivos.

Inclusión digital

Los datos y servicios satelitales tienen usos agrícolas más allá del monitoreo de cultivos y la optimización de recursos. Los pequeños agricultores, sobre todo en los LMIC que no cuentan con una infraestructura bancaria establecida, a menudo quedan excluidos de los mercados financieros tradicionales que solo dan crédito mas no ahorros, préstamos u otros servicios. Las mujeres asimismo se ven también afectadas de modo desproporcionado por la exclusión financiera. Prestamistas innovadores como Harvesting Farmers Network usan tecnologías satelitales y detección remota para remediar estas brechas y atender a productores agrícolas subatendidos. Los datos provenientes de la observación de la Tierra pueden emplearse para evaluar la productividad agrícola, ayudar a los prestamistas a ir más allá de requerir una huella de papel u otra documentación, y a reducir las barreras al acceso a los mercados financieros.

El acceso a la banca mediante la conectividad posibilitada por los satélites atiende a poblaciones que se encuentran más allá de los pequeños productores agrícolas. La conectividad satelital ayuda a las poblaciones geográficamente aisladas a utilizar servicios financieros. Los satélites están ayudando a poblaciones no atendidas o subatendidas del África subsahariana a tener acceso a la banca, en tanto que México se ha asociado con proveedores comerciales de internet satelital para alcanzar resultados similares de inclusión financiera digital.

Más datos, menos hardware

Los satélites pueden ser sistemas costosos, pero el acceso a sus servicios y datos no tiene por qué ser un desembolso financiero prohibitivamente grande. Los operadores de satélites a veces hacen que los datos que sus sistemas recogen estén a disposición del público gratuitamente. Esta práctica es común en el gobierno y la industria: la Administración Nacional de Aeronáutica y el Espacio de los Estados Unidos ofrece diversos conjuntos de datos gratuitos para apoyar una cultura científica abierta y colaborativa en todo el mundo. Los actores de la industria de los satélites toman un enfoque ligeramente distinto con respecto a los datos abiertos. Algunas entidades comerciales como Maxar tienen un largo historial de proporcionar datos gratuitos y abiertos en épocas de crisis o después de los desastres para ayudar a las respuestas humanitarias.

El compartir abierto de datos de los satélites a través de las fronteras ayuda a los investigadores a construir diversos equipos para que enfrenten problemas de salud pública. Y sin embargo sigue habiendo oportunidades para dar un mejor uso a los datos de los satélites. Hay espacio para mejorar tanto la recolección de datos de teledetección como la forma en que usamos dichos datos derivados de satélites. Es importante que los usuarios finales entiendan los efectos del preprocesamiento de datos, pues este puede tanto ayudar al análisis como estorbarlo. Técnicas destintas pueden tener un impacto sobre la utilidad de los datos satelitales, optimizando a veces el proceso analítico y eliminando la necesidad de contar con expertos internos. De otro lado, la recepción de datos preprocesados limitaría la sofisticación del análisis final. Los datos sin procesar podrían ser la mejor opción cuando se cuenta con ellos, si es que la organización tiene la capacidad técnica y el tiempo para procesarlos. Es por ello importante usar imágenes y datos de teledetección que encajen tanto con la finalidad de una organización como con su pericia técnica.

Imagen con el color mejorado de fitoplancton en el talud patagónico, tomada por el Suomi National Polar Orbiting Partnership Satellite Source: https://www.nasa.gov/image-article/colorful-plankton-full-patagonian-waters/

Cooperación sur-sur y el rechazo de las expectativas postcoloniales

Más y más países vienen participando en el desarrollo de la tecnología satelital o usando datos provenientes de satélites, incluso los del Sur Global. Muchos de estos gobiernos están colaborando o asociándose con actores industriales establecidos, o bien con otras potencias espaciales más avanzadas. A medida que más LMIC desarrollen sus capacidades locales, también expandirán el potencial para una cooperación sur-sur más profunda. Es más, el Sur Global puede ir en contra de las narrativas coloniales invirtiendo en satélites y sistemas espaciales. Los Estados con historias coloniales pueden ir en contra de las expectativas de que debieran basar sus economías en la extracción de recursos u otros productos rudimentarios, suministrando activos altamente técnicos como satélites a una escala global.

Amazonia-1, el primer satélite del Brasil, siendo lanzado en Sriharikota, India Source: http://www.inpe.br/amazonia1/img/galeria/66.jpg

Inicio

Riesgos

El uso de tecnologías emergentes puede también crear riesgos en los programas de la sociedad civil. Lea a continuación cómo distinguir los posibles peligros asociados con los satélites en el trabajo de DRG, así como de qué modo mitigar las consecuencias involuntarias y voluntarias.

Regulaciones onerosas

Disponer la conectividad satelital no es tan simple como encender un aparato: los emisores deben recibir autorizaciones específicas y licencias del gobierno de un país para emitir la conectividad hacia su territorio. Unos procesos burocráticos gubernamentales bien intencionados pero onerosos podrían retrasar el momento en que una población podrá beneficiarse con la conectividad satelital. En otros casos los intereses políticos podrían impedir que los operadores de los satélites atiendan a una población, en un intento de controlar el acceso que los ciudadanos tienen a la información o a campañas de oposición.

Vulnerabilidad de la señal

Las señales de los satélites son vulnerables a la interferencia, aun cuando un operador tiene licencia plena para operar en un país. Las señales son susceptibles tanto a la interferencia política como física. Los gobiernos podrían elegir revocar las licencias, finalizando efectivamente la capacidad de un operador para suministrar legalmente servicios de conectividad dentro de las fronteras de un país con poco o ningún aviso. Los malabares burocráticos que un proveedor de servicio debe efectuar para recibir una licencia, son a menudo más onerosos que el proceso para que un gobierno revoque el derecho que un proveedor de conectividad satelital tiene a emitir una señal. Hay pocas mejores prácticas o directrices ejemplares acerca de qué constituye una razón para revocar una licencia, de modo que cada Estado constituye un caso aparte. No queda claro que muchos Estados hayan llevado a cabo un proceso reflexivo para entender por qué, y bajo qué circunstancias, un proveedor satelital perdería su licencia de operación.

Dependencia excesiva

Una compañía puede dejar de suministrar servicios satelitales del mismo modo que un gobierno puede revocar una licencia. La sociedad civil debe por ende desconfiar de depender demasiado de un solo proveedor, en caso que éste decida cortar el servicio. Un proveedor podría dejar de atender a un país por muchas razones, entre ellas por dificultades financieras o por motivaciones políticas. Por ejemplo, durante la guerra actualmente en curso en Ucrania, la conectividad de Starlink fue ahogada aunque no apagada del todo.

Los actores de la sociedad civil que deseen trabajar con otras entidades en proyectos satelitales debieran asimismo cuidarse de no hacerse excesivamente dependientes de socios que puedan tener un apalancamiento abrumador sobre un proyecto. Los incentivos que motivan la transferencia tecnológica y el compartir conocimientos no siempre están alineados entre los socios. Los problemas del alineamiento pueden provocar fricciones y afectar los beneficios de un proyecto. Es probable que este riesgo también habrá de ser relevante en las interacciones entre Estados.

Acceso no ético a los datos

En las manos equivocadas, los datos satelitales podrían ser empleados para diversos fines malévolos. Los datos de ubicación, mapas o logs de cuándo un dispositivo estuvo transmitiendo una señal a un satélite, podrían ser usados por malos actores para erosionar la privacidad física. Los proveedores de la conectividad satelital podrían vender los datos de los usuarios, pero algunos tipos de datos sensibles podrían ser obtenidos por terceros con técnicas de recolección sofisticadas. Pocos países han establecido unas fuertes regulaciones domésticas con la cual limitar los efectos negativos de la vigilancia electrónica de la conectividad hecha posible por los satélites.

Carga financiera

Las sociedades con entidades comerciales o Estados extranjeros podrían ser necesarias incluso con los riesgos concomitantes de una dependencia excesiva, dados los altos costos que tiene diseñar y lanzar un satélite. Si bien es cierto que los avances en la fabricación y lanzamiento han reducido los costos del despliegue y operación de un satélite, los sistemas diseñados exclusivamente para este fin a menudo siguen siendo demasiado prohibitivos. Esto es particularmente prominente en Estados que tienen un espacio fiscal limitado y la obligación de enfrentar otros problemas sociales.


Retención de talento

Los países que hacen un esfuerzo concertado para desarrollar una industria satelital, o para brindar a sus ciudadanos servicios respaldados por satélites, podrían también tener problemas para retener la capacidad técnica. Para los países de ingresos bajos y medios resulta difícil conservar ingenieros y otros profesionales bien formados, dedicados a los satélites domésticos. Estos problemas son aún más agudos cuando los ciudadanos dependen de socios extranjeros y no ven vías locales para el crecimiento y la productividad. Este problema se ve asimismo exacerbado por el hecho que los salarios estatales no pueden esperar alcanzar a los que el sector privado tiene para los expertos en tecnología. Sin talento doméstico al cual recurrir, los Estados corren el riesgo de no poder defenderse ni en las negociaciones de servicios técnicos, ni tampoco en los foros multilaterales sobre la gobernanza espacial y el establecimiento de normas.

Falta de gobernanza multilateral

Nuevos paradigmas como las megaconstelaciones amenazan la capacidad de las generaciones futuras para beneficiarse con tecnologías en la órbita terrestre. Este riesgo de sobrepoblación es similar a los principios de sostenibilidad medioambiental terrestre. Las órbitas de la Tierra pueden ser gigantescas en términos del volumen total, pero son un recurso finito. Hay una línea fina entre la maximización del uso de dichas órbitas, y el lanzamiento de tantos satélites al espacio de modo que ninguno puede operar con seguridad. Esta sobrepoblación afecta a toda la humanidad, pero es particularmente aguda para los Estados emergentes o que aspiran a dominar el espacio, que se podrían ver obligados a operar en un entorno de alto riesgo al haber perdido la ventana de oportunidad para dar sus primeros pasos en el espacio durante un periodo relativamente más seguro. Semejante situación tiene efectos secundarios: aquellos Estados que no son capaces de iniciar sus actividades espaciales con seguridad, tienen también menos posibilidades de poder demostrar y reforzar las expectativas normativas de comportamiento responsable. Las vías para participar en los actuales procesos multilaterales de gobernanza espacial se hacen más difíciles al no haber demostrado su capacidad espacial.

Hay pocas normas globales que respaldan los usos sostenibles y equitativos del espacio. Algunos Estados recientemente han adoptado regulaciones más estrictas de cómo es que las compañías pueden usar el espacio, pero es poco probable que el esfuerzo no coordinado de unos cuantos Estados pueda asegurar el acceso de la humanidad al entorno orbital de bajo riesgo para las generaciones por venir. Alcanzar estas metas de sostenibilidad espacial es una empresa global que requiere de cooperación multilateral.

Inicio

Preguntas

Hágase estas preguntas para entender las implicaciones que el satélite usado en su trabajo tiene:

  1. ¿Hay barreras que impiden que los beneficios de los satélites sean aprovechados en su país? ¿Cuáles son? ¿Financiamiento? ¿Conocimientos? ¿Falta de gobernanza local?
  2. ¿Los datos o servicios derivados de los satélites están personalizados a sus necesidades específicas?
  3. ¿Cuán competitivo es el mercado de servicios satelitales en su zona, y cómo es que esta competencia, o su ausencia, afecta el costo de acceder a dichos servicios?
  4. ¿Los satélites que posibilitan la conectividad a los que piensa usar tienen medidas de ciberseguridad actualizadas?
  5. ¿Qué tipos de estación(es) terrestre(s) usa el sistema espacial, y está dicha infraestructura suficientemente protegida de su toma o manipulación?
  6. ¿El propietario u operador del satélite se adhiere o promueve los usos sostenibles del espacio?
  7. ¿Qué cambios estructurales o reguladores deben implementarse dentro de su país de interés para extraer el mayor valor posible a un sistema satelital?
  8. ¿Cómo se han implementado los sistemas satelitales en otros Estados? De ser así, ¿hay formas de evitar o superar los problemas antes de su implementación?/div>
  9. ¿Cómo podría su uso de los servicios o datos satelitales, promover la adopción de comportamientos internacionales nacientes que preserven su capacidad de acceder a servicios espaciales en el largo plazo?
  10. ¿Está creando dependencias riesgosas? ¿Cuán confiables y estables son las organizaciones de las que depende? ¿Cuenta con un plan de contingencia?
  11. ¿Las aplicaciones a las cuales accede a través de la conectividad satelital son seguras y confiables?

Inicio

Estudios de caso

Inscripción electoral en Vanuatu

Inscripción electoral en Vanuatu
El Programa de las Naciones Unidas para el Desarrollo (PNUD) y el Centro de Satélites de las Naciones Unidas (UNOSAT) se asociaron en una iniciativa para ayudar a la inscripción de votantes en Vanuatu, en preparación para las elecciones provinciales de 2021. UNOSAT utilizó los datos satelitales para preparar el primer conjunto de datos completo que representaba a todos los pueblos del archipiélago. Estos datos fueron usados conjuntamente con medidas de la concurrencia electoral, para así cuantificar el impacto de los centros de votación. Los datos de los satélites fueron usados para ubicar poblaciones difíciles de alcanzar y maximizar la participación electoral. El uso de los datos satelitales ayudó a mejorar el trabajo relacionado con las elecciones, y redujo la carga en los funcionarios electorales para que pudieran concentrarse en atender otros aspectos de la elección.

Asociaciones para proporcionar imágenes que apoyen la paz

Asociaciones para proporcionar imágenes que apoyen la paz
La capacidad de los satélites para captar imágenes cenitales es particularmente valiosa para documentar las violaciones de los derechos humanos en Estados que restringen el acceso a activistas e inspectores. Una reciente asociación entre Human Rights Watch y Planet, una compañía con sede en los EE. UU que opera satélites de observación de la Tierra, permitió a grupos de activistas responsabilizar a la dirigencia nacional de un país. En este caso Human Rights Watch analizó imágenes satelitales de Myanmar proporcionadas por Planet, para confirmar la destrucción de aldeas de etnia rohinyás. La frecuente recolección de imágenes de satélites mostró que varias docenas de aldeas fueron quemadas, contradiciendo así las declaraciones de Myanmar de que las operaciones de limpieza estatales habían terminado. Los activistas usaron esta verdad descubierta para pedir un urgente cese de la violencia y apoyar el suministro de ayuda humanitaria.

Televisión satelital

Televisión satelital
Los satélites posibilitan muchas formas de comunicación de masas, la televisión inclusive. Aunque esta es una diversión o lujo en muchas partes del mundo, es también una herramienta poderosa con que dar forma al discurso político. La televisión satelital puede brindarle a la ciudadanía programas de todo el mundo, expandiendo así los horizontes más allá de la programación local. La televisión satelital llegó a la India en 1991, tras años de control estatal sobre los medios de radiodifusión. De un lado, el formato de recepción de internet satelital fue un marcador del modernismo, en tanto que del otro la programación que brindaba se hizo un fenómeno social. La televisión satelital trajo consigo más de 300 nuevos canales a la India, nutriendo así la participación cultural y apoyando la forma en que la ciudadanía consideraba interactuar, entre sí y con el Estado. Esto fue particularmente liberador en el contexto postcolonial, puesto que era ahora la sociedad india la que controlaba sus medios de comunicación y mostraba consideraciones de identidad social mediante la televisión satelital..

Trabajo ecológico de Servir

Trabajo ecológico de Servir
Mediante el programa Servir, una iniciativa colaborativa liderada por la Agencia de los Estados Unidos para el Desarrollo Internacional y la Administración Nacional de Aeronáutica y el Espacio de los EE.UU., las agencias del gobierno estadounidense se asocian con organizaciones locales en regiones afectadas para que empleen los datos de los satélites en el diseño de soluciones con que abordar problemas ambientales en todo el mundo. Entre otras muchas contribuciones, el equipo de Servir viene trabajando en conjunto con socios en Perú y Brasil para usar datos satelitales y geoespaciales en mapas precisos, con los cuales ayudar a informar decisiones acerca de políticas agrícolas y medioambientales. Este trabajo apoya los esfuerzos de las partes interesadas por entender la compleja interface entre productividad agrícola y la sostenibilidad ambiental. Los resultados se usan para diseñar incentivos de política que promuevan la agricultura sostenible del cacao y el aceite de oliva. Las partes interesadas locales, que incluyen a las comunidades agrícolas, pueden usar los datos derivados de los satélites para optimizar su uso de la tierra.

Cooperación sur-sur en el monitoreo agrícola

Cooperación sur-sur en el monitoreo agrícola Los satélites son herramientas valiosas para los desarrollos agrícolas. El CropWatch program, iniciado por la Academia de Ciencias de China, trabaja para proporcionar a los LMIC acceso a datos recogidos por satélites y capacitarlos para usarlos para sus fines específicos. Este programa respalda el monitoreo agrícola y permite que los Estados se preparen mejor para los problemas de seguridad alimentaria. Los Estados han sido capaces de interactuar entre sí gracias a extensos programas de capacitación, lo que permite una colaboración sur-sur en problemas compartidos. Los datos recogidos mediante CropWatch pueden personalizarse para adecuarse a las necesidades locales.

Acceso a una voz

El uso clandestino de internet satelital ha permitido a los manifestantes en Irán acceder a la internet mediante métodos alternativos. El gobierno iraní ejerce un estrecho control sobre los métodos tradicionales de acceso a la internet para sofocar las protestas y el activismo civil. Estos métodos de controlar o de limitar la libre expresión, el activismo democrático y la organización civil aún no han logrado limitar el acceso de la ciudadanía a la internet satelital proporcionada por servicios como Starlink. El gobierno iraní aún ejerce cierto control sobre la internet satelital en el país: las terminales terrestres tienen que ingresar de contrabando por las fronteras para prestar servicio a los activistas.

Amnesty Decode Darfur Project

Amnesty Decode Darfur Project
Los satélites ayudan a confirmar verdades fundamentales. Amnistía Internacional tiene una larga historia de usar imágenes satelitales para presentar evidencias creíbles de abusos de los derechos humanos. Este proyecto solicitaba que voluntarios digitales mapearan a Darfur e identificaran poblaciones potencialmente vulnerables. La siguiente fase del proyecto comparó imágenes satelitales del mismo lugar tomadas en distintos momentos, para ubicar con precisión evidencias de los ataques del gobierno sudanés y las fuerzas de seguridad asociadas. Amnistía tiene su propio equipo de análisis de imágenes satelitales in-house para corroborar las versiones sobre el terreno de violencia, pero este proyecto mostró que incluso el análisis efectuado por voluntarios amateurs de las imágenes satelitales era una forma viable de investigar los abusos contra los derechos humanos y responsabilizar a los Estados.

Inicio

Referencias

A continuación encontrará los trabajos citados en este recurso.

Fuentes afines

Inicio

Categories

Ciudades inteligentes

¿Qué son las ciudades inteligentes?

Las ciudades inteligentes pueden tomar muchas formas, pero en general aprovechan las tecnologías digitales como la inteligencia artificial (IA) y la Internet de las Cosas (IdC) para mejorar la vida urbana. Las tecnologías y la recolección de datos que sostienen a estas ciudades tienen el potencial para automatizar y mejorar el suministro de servicios, fortalecer la preparación para los desastres, impulsar la conectividad y mejorar la participación ciudadana. Pero si las ciudades inteligentes se implementan sin transparencia y respeto por el imperio de la ley, corren el riesgo de erosionar las buenas normas de gobernanza, minar la privacidad y extinguir la libre expresión.

¿Cómo funcionan las ciudades inteligentes?

La luz solar ilumina un mercado al anochecer en Msimba, Tanzania. Las ciudades inteligentes integran la tecnología con la infraestructura ya existente para recoger datos y optimizar el uso de los recursos. Crédito de la fotografía: Jake Lyell.
La luz solar ilumina un mercado al anochecer en Msimba, Tanzania. Las ciudades inteligentes integran la tecnología con la infraestructura ya existente para recoger datos y optimizar el uso de los recursos. Crédito de la fotografía: Jake Lyell.

Las ciudades inteligentes integran la tecnología con la infraestructura nueva y la ya existente —como carreteras, aeropuertos, edificios municipales y a veces hasta residencias privadas— para optimizar la asignación de recursos, evaluar las necesidades de mantenimiento y monitorear la seguridad ciudadana. El término “ciudad inteligente” no se refiere a una única tecnología, sino más bien a múltiples que operan juntas para mejorar la habitabilidad de una zona urbana. No hay una lista oficial de las tecnologías que una ciudad necesita para implementar lo que se considera “inteligente”. Pero una de estas ciudades sí requiere de planificación urbana, lo que incluye una estrategia de crecimiento administrada por el gobierno local, con una contribución significativa del sector privado.

Los datos constituyen el meollo de la ciudad inteligente

Las ciudades inteligentes por lo general dependen de un procesamiento de datos en tiempo real y de herramientas de visualización que informen la toma de decisiones. Esto usualmente quiere decir recoger y analizar datos tomados por sensores inteligentes instalados por toda la ciudad y conectados a través de la Internet de las Cosas para abordar problemas como el tráfico vehicular, la contaminación del aire, el manejo de desechos y la seguridad física.

La recolección de datos en las ciudades inteligentes también brinda un mecanismo de retroalimentación con que fortalecer la relación entre la ciudadanía y el gobierno local cuando le acompañan medidas de transparencia, como hacer pública la información referida a los presupuestos oficiales y la asignación de recursos. Sin embargo, el mal uso dado a los datos personales sensibles podría alienar a los ciudadanos y reducir la confianza. Una estrategia de manejo de datos detallada y que respete los derechos, podría ayudar a asegurar que los ciudadanos entiendan (y consientan a) cómo se recogen sus datos, se les procesa y guarda, y cómo se les usará en beneficio de la comunidad.

Toda ciudad inteligente es diferente

Las ciudades son extremadamente diversas y la implementación de las ciudades inteligentes variará dependiendo de la ubicación, las prioridades, los recursos y las capacidades. Algunas de ellas se construyen superponiendo las TIC sobre la infraestructura ya existente, como en Nairobi, en tanto que otras son construidas “a partir de cero”, como Konza, el “Silicon Valley” de Kenia. Además del desarrollo tecnológico, otros elementos no digitales de las ciudades inteligentes son las mejoras en las viviendas, una mejor capacidad de caminar, la creación de nuevos parques, la preservación de la vida silvestre, etc. En última instancia, el énfasis en una mejor gobernanza y sostenibilidad puede generar mejores resultados para los ciudadanos que un enfoque explícito en la tecnología, la digitalización y el crecimiento.

Las ciudades inteligentes en los países en vías de desarrollo enfrentan singulares retos legales, reguladores y socioeconómicos.

Ejes impulsores del desarrollo de una ciudad inteligente en los países en vías de desarrollo

  • Capacidad de financiamiento del gobierno
  • Entorno regulador en que los ciudadanos e inversionistas confían
  • Disponibilidad de tecnología e infraestructura
  • Capital humano
  • Estabilidad en el desarrollo económico
  • Compromiso y participación ciudadanos activos
  • Transferencia de conocimientos y participación del sector privado
  • Un ecosistema que promueve la innovación y el aprendizaje

Barreras para el desarrollo de una ciudad inteligente en los países en vías de desarrollo

  • Limitaciones presupuestarias y cuestiones de financiamiento
  • Falta de inversión en infraestructura básica
  • Falta de disponibilidad de infraestructura relacionada con la tecnología
  • Autoridad fragmentada
  • Falta de marcos de gobernanza y salvaguardas reguladoras
  • Falta de capital humano calificado
  • Problemas medioambientales
  • Falta de participación ciudadana
  • Analfabetismo tecnológico y déficit de conocimientos

Niños jugando en la plaza Limonade, Haití. Los proyectos de ciudad inteligente pueden mejorar la calidad de vida de sus ciudadanos. Crédito de la fotografía: Kendra Helmer/USAID.
Children playing at Limonade plaza, Haiti. Smart city projects can improve the quality of life for citizens. Photo credit: Kendra Helmer/USAID.

El desarrollo de una ciudad inteligente que realmente beneficie a los ciudadanos requiere de una cuidadosa planificación, lo que usualmente toma varios años antes de que la infraestructura de la ciudad pueda ser actualizada. Su implementación debiera darse gradualmente a medida que la voluntad política, la demanda cívica y los intereses del sector privado van convergiendo. Los proyectos de ciudades inteligentes solamente pueden ser exitosos cuando la ciudad ha desarrollado una infraestructura básica y levantado protecciones legales para asegurar que la privacidad de los ciudadanos se respete y salvaguarde. La infraestructura necesaria para las ciudades inteligentes es costosa y necesita un mantenimiento de rutina y en marcha, y su revisión por parte de profesionales calificados. Muchos proyectos planeados de ciudades inteligentes quedaron consignados a los cementerios de los sensores olvidados debido a la falta de un mantenimiento adecuado, o porque los datos recogidos no fueron finalmente valiosos para el gobierno y los ciudadanos.El desarrollo de una ciudad inteligente que realmente beneficie a los ciudadanos requiere de una cuidadosa planificación, lo que usualmente toma varios años antes de que la infraestructura de la ciudad pueda ser actualizada. Su implementación debiera darse gradualmente a medida que la voluntad política, la demanda cívica y los intereses del sector privado van convergiendo. Los proyectos de ciudades inteligentes solamente pueden ser exitosos cuando la ciudad ha desarrollado una infraestructura básica y levantado protecciones legales para asegurar que la privacidad de los ciudadanos se respete y salvaguarde. La infraestructura necesaria para las ciudades inteligentes es costosa y necesita un mantenimiento de rutina y en marcha, y su revisión por parte de profesionales calificados. Muchos proyectos planeados de ciudades inteligentes quedaron consignados a los cementerios de los sensores olvidados debido a la falta de un mantenimiento adecuado, o porque los datos recogidos no fueron finalmente valiosos para el gobierno y los ciudadanos.

Elementos comunes de una ciudad inteligente

A continuación aparece un resumen de las tecnologías y prácticas comunes a las ciudades inteligentes, pero esta lista en modo alguno es exhaustiva o universal.

Wi-Fi abierto: una conectividad asequible y confiable a internet es esencial para una ciudad inteligente. Algunas de ellas brindan acceso gratuito a internet de alta velocidad mediante una infraestructura inalámbrica que abarca toda la ciudad. El Wi-Fi gratuito puede facilitar la recolección de datos, apoyar a los servicios de emergencia y alentar a los vecinos a usar los espacios públicos.

Internet de las cosas (IdC): la internet de las cosas es una red en expansión de dispositivos físicos conectados mediante la internet. Desde vehículos a refrigeradores o sistemas de calefacción, estos dispositivos se comunican con los usuarios, programadores, aplicaciones y otros más recolectando, intercambiando y procesando datos. Por ejemplo, los datos recogidos en un medidor de agua inteligente pueden dar forma a mejores respuestas a problemas como las fugas de agua o su desperdicio. La IdC se ve facilitada en gran medida por el surgimiento de los teléfonos inteligentes, que permiten a la gente conectarse fácilmente entre sí y con otros dispositivos.

5G: los servicios de las ciudades inteligentes necesitan internet de alta velocidad y gran ancho de banda para manejar la cantidad de datos generados por la IdC y procesarlos en tiempo real. La creciente conectividad y capacidad de procesamiento de la infraestructura de internet de 5G facilita muchos de los procesos relacionados con internet, necesarios para las ciudades inteligentes.

Redes eléctricas inteligentes: éstas son redes de energía que emplean sensores para recolectar datos en tiempo real acerca de su uso energético y los requisitos de la infraestructura y de los ciudadanos. Además de controlar los servicios públicos, las redes eléctricas inteligentes monitorean la electricidad, distribuyen la banda ancha para mejorar la conectividad y controlan procesos como el tráfico. Estas redes dependen de una serie de operadores de electricidad e involucran a una amplia red de partes, entre ellas vendedores, proveedores, contratistas, operadores de generación distribuida y consumidores.

Sistema inteligente de transporte (SIT): con los sistemas inteligentes de transporte, diversos mecanismos de transporte pueden ser coordinados para reducir el uso de energía, disminuir la congestión del tráfico y disminuir el tiempo de viaje. Los SIT se concentran en la “entrega en el último kilómetro” o en optimizar el proceso de entrega. Los vehículos autónomos suelen estar asociados con ciudades inteligentes, pero los SIT van más allá de vehículos individuales.

Vigilancia: al igual que los objetos conectados, los datos acerca de los residentes pueden ser retransmitidos, juntados y analizados. En algunos casos, las cámaras existentes de CCTV pueden ser unidas a un avanzado software de video-analítica y conectados con la IdC para manejar el tráfico y la seguridad pública. Las soluciones con infraestructura de videovigilancia fija dan cuenta de la inmensa mayoría de la vigilancia en las ciudades inteligentes del mundo, pero las soluciones de vigilancia móvil también vienen creciendo rápidamente. La expansión de la vigilancia a la identificación personal es un tema fuertemente debatido y que tiene ramificaciones significativas para la sociedad civil y los actores de DRG.

ID digital y servicios de entrega: los servicios de identificación digital pueden vincular a los ciudadanos con su ciudad al facilitar la apertura de una cuenta bancaria o el acceso a los servicios de salud. La ID digital centraliza toda la información e historia de transacciones, lo cual es conveniente para los ciudadanos pero también introduce algunas preocupaciones de seguridad. Técnicas tales como la divulgación mínima (depender de la menor cantidad de datos que sea posible) y tecnologías descentralizadas como la identidad autosoberana (SSI) podrían ayudar a separar la identidad, la transacción y el dispositivo.

e-gobierno: el gobierno electrónico —el uso de la tecnología para proporcionar servicios del gobierno al público— busca mejorar el suministro de servicios, mejorar el compromiso ciudadano y construir la confianza. Hacer que más información, como los presupuestos gubernamentales, sea pública y esté a disposición de los ciudadanos es un elemento primario del e-gobierno. El servicio con teléfonos inteligentes es otra estrategia, puesto que la tecnología móvil combinada con una plataforma de e-gobierno puede ofrecer a la ciudadanía un acceso remoto a los servicios municipales.

Director de tecnología: algunas ciudades inteligentes tienen un director de tecnología (CTO) o director de sistemas de información (DSI), que lidera los esfuerzos de la ciudad para desarrollar soluciones tecnológicas creativas y eficaces en colaboración con los vecinos y los funcionarios electos. El CTO o el DSI estudian a la comunidad, aprenden las necesidades de los ciudadanos, planean y ejecutan iniciativas afines, y supervisan la implementación y las mejoras continuas.

Interoperabilidad: los muchos y distintos servicios y herramientas usados en una ciudad inteligente debieran funcionar juntos, para que se comuniquen entre ellos y para compartir datos. Esto necesita de un diálogo y una cuidadosa planificación entre los proveedores de empresas y los gobiernos de la ciudad. La interoperabilidad quiere decir que la nueva infraestructura debe poder funcionar encima de la infraestructura ya existente de una ciudad (por ejemplo, instalar nueva iluminación LED “inteligente” encima de los sistemas de alumbrado ya existentes de la ciudad).

“Una ciudad inteligente es un proceso de continua mejora en los métodos de funcionamiento de la ciudad. No es un big bang.”

JEFE DE PROYECTOS DE UNA CIUDAD INTELIGENTE EN BORDEAUX, FRANCIA

Inicio

¿De qué modo son las ciudades inteligentes relevantes en el espacio cívico y para la democracia?

Tal como se describe con mucho mayor detenimiento en la sección oportunidades de este recurso, las ciudades inteligentes pueden mejorar la eficiencia energética así como la preparación para los desastres, e incrementar la participación cívica. Pero ellas son, de muchas formas, un arma de doble filo y pueden también facilitar una vigilancia excesiva e infringir los derechos de reunión y de libre expresión.

Alumbrado público en Macasar, Indonesia. Las ciudades inteligentes tienen el potencial para alcanzar las metas de reducción del carbono y de energía renovable, así como mejorar la eficiencia económica y la distribución energética. Crédito de la fotografía: USAID.
Alumbrado público en Macasar, Indonesia. Las ciudades inteligentes tienen el potencial para alcanzar las metas de reducción del carbono y de energía renovable, así como mejorar la eficiencia económica y la distribución energética. Crédito de la fotografía: USAID.

En países autoritarios, las ciudades inteligentes pueden convertirse en unos poderosos instrumentos para la manipulación y el control. Las de China, por ejemplo, están vinculadas con el concepto que el Partido Comunista Chino tiene del “manejo social”, esto es los intentos del partido gobernante por dar forma, manejar y controlar la sociedad. Cuando se implementan sin transparencia o respeto por el imperio de la ley, las tecnologías de las ciudades inteligentes —como un medidor de luz inteligente, que busca mejorar la precisión de las lecturas— puede ser abusado por el gobierno como un indicador de comportamientos “anormales” que indican reuniones “ilegales”. En casos extremos, la vigilancia y el monitoreo facilitados por una ciudad inteligente podrían disuadir a la ciudadanía de reunirse para protestar, o de expresar de algún otro modo su oposición a las leyes y directrices locales.

La participación de actores autoritarios en el diseño y funcionamiento de las ciudades inteligentes constituye una amenaza significativa para la democracia, en particular en países con tendencias intolerantes preexistentes o débiles instituciones de supervisión. Los socios de la tecnológica china Huawei —que brinda “soluciones” de ciudad inteligente que incluyen el reconocimiento facial y de placas de autos, el monitoreo de medios sociales y otras capacidades de vigilancia—tienden a ser no liberales, lo que hace surgir la preocupación de que el Partido Comunista Chino está exportando autoritarismo. En al menos dos casos, los técnicos de Huawei “ayudaron a gobiernos africanos a espiar a sus opositores políticos, incluso interceptando sus comunicaciones encriptadas y medios sociales, y usaron los datos de celulares para rastrear su ubicación”.

Desarrollar una ciudad inteligente que respete los derechos requiere de la participación activa de la sociedad, desde las etapas iniciales de planificación hasta la implementación del proyecto. Los mecanismos que permiten a los ciudadanos manifestar sus preocupaciones y dar retroalimentación podrían hacer bastante por construir la confianza y alentar la participación cívica más adelante. La educación y los programas de capacitación debieran también implementarse durante la etapa de planificación, para así ayudar a los ciudadanos a entender cómo usar la tecnología que les rodea, así como el modo en que beneficiará su vida cotidiana.

Las ciudades inteligentes pueden crear nuevas vías para la participación en los procesos democráticos, por ejemplo mediante el voto electrónico. Sus partidarios subrayan los beneficios como “resultados más rápidos, reducción de costos y accesibilidad remota, lo que podría potencialmente incrementar la participación electoral”. Pero tienden a “subestimar los riesgos tales como el fraude electoral, las violaciones de la seguridad, problemas de verificación, y errores y fallos de software”. Si bien las ciudades inteligentes giran en torno a la formulación de políticas focalizadas en la tecnología, los retos que las comunidades urbanas experimentan requieren de soluciones estructurales en las cuales la tecnología apenas es uno de los componentes.

Distrito comercial empresarial de Nairobi, Kenia. Algunas ciudades inteligentes, como Nairobi, fueron levantadas sobre la infraestructura ya existente de las ciudades. Crédito de la fotografía: USAID East Africa Trade and Investment Hub.
Distrito comercial empresarial de Nairobi, Kenia. Algunas ciudades inteligentes, como Nairobi, fueron levantadas sobre la infraestructura ya existente de las ciudades. Crédito de la fotografía: USAID East Africa Trade and Investment Hub.

La tecnología de las ciudades inteligentes podía tener como resultado una mayor privatización de la infraestructura gubernamental, lo que en última instancia “desplaza[ría] los servicios públicos, reemplaza[ría] la democracia con la toma de decisiones corporativa, y permiti[ría] que las agencias gubernamentales evadan las protecciones constitucionales y las leyes de rendición de cuentas a favor de la recolección de más datos”. En algunos casos, las autoridades que se dedican a conseguir contratos para las tecnologías de ciudad inteligente se han negado a revelar información acerca de las negociaciones, o evadido por completo los procedimientos estándares de compras públicas.

Así, las normas de privacidad, las regulaciones de protección de datos y los sistemas de debido proceso son todos componentes vitales de una ciudad inteligente que realmente beneficie a la ciudadanía. Una sólida infraestructura legal puede también proporcionar a los ciudadanos un recurso en caso de discriminación o abuso, incluso antes ser una ciudad inteligente. En India, “el impulso hacia las ciudades inteligentes detonó el lanzamiento de la gente de los barrios bajos y los asentamientos informales sin que se diera una compensación adecuada con un alojamiento alternativo”. Sucede con demasiada frecuencia que ciudades que se llaman a sí mismas “inclusivas”, benefician fundamentalmente a la elite y no logran abordar las necesidades de mujeres, niños, migrantes, minorías, personas con discapacidades, de los que operan en la economía informal, los grupos de bajos ingresos o de personas con bajos niveles de conocimientos digitales. Dada la variación en las normas legales entre países, los marcos de los derechos humanos podrían ayudar a informar la implementación equitativa de las ciudades inteligentes, para así asegurar que beneficien al conjunto de la sociedad, las comunidades vulnerables inclusive. La sociedad civil y los gobiernos debieran tener en cuenta 1) si la tecnología es apropiada para el objetivo y si alcanza su meta, 2) si la tecnología es necesaria en la medida en que no excede su fin y no hay otra forma de alcanzar la meta, y 3) si la tecnología es proporcional, lo que quiere decir que los problemas o inconvenientes no superarán los beneficios del resultado.

Inicio

Oportunidades

Las ciudades inteligentes pueden tener una serie de impactos positivos cuando se las usa para promover la democracia, los derechos humanos y la buena gobernanza.

Sostenibilidad medioambiental

Según la OCDE, las ciudades modernas usan casi las dos terceras partes de la energía mundial, producen hasta el 80% de las emisiones globales de gases de efecto invernadero, y generan el 50% de los desperdicios mundiales. Las ciudades inteligentes pueden contribuir al Objetivo de Desarrollo Sostenible 11 de hacer que las ciudades y asentamientos humanos sean inclusivos, seguros, resilientes y sostenibles aprovechando los datos para mejorar la eficiencia económica y la distribución energética, reduciendo así en última instancia la huella de carbono de la ciudad e introduciendo nuevas oportunidades de energías renovables. Las ciudades inteligentes a menudo están vinculadas a prácticas económicas circulares, las cuales incluyen el “supraciclaje” del agua de lluvia, materiales de desecho y hasta datos públicos abiertos (véase más adelante). Además, las tecnologías de ciudades inteligentes pueden aprovecharse para ayudar a prevenir la pérdida de biodiversidad y de hábitats naturales.

Preparación para los desastres

Las ciudades inteligentes pueden ayudar a mejorar la preparación para los desastres, su mitigación, respuesta y recuperación. La recolección y análisis de los datos pueden aplicarse al monitoreo de amenazas ambientales, y los sensores remotos pueden mapear los peligros. Por ejemplo, los datos abiertos y la inteligencia artificial pueden usarse para identificar las áreas que es más probable que sean las más duramente golpeadas por los terremotos. Los sistemas de alerta temprana, los sistemas de alerta de los medios sociales, GIS y los sistemas móviles podrían también contribuir a la gestión de desastres. Un problema importante durante los desastres naturales es la pérdida de las comunicaciones; en una ciudad inteligente, los sistemas interconectados pueden compartir información acerca de qué zonas necesitarán ayuda o reabastecimiento cuando los canales individuales de comunicación colapsen.

Inclusión social

Las ciudades inteligentes pueden facilitar la inclusión social en formas importantes: mediante un acceso rápido y seguro a la internet; con mejoras en el acceso al gobierno y a los servicios sociales; con vías para el input y la participación ciudadanos; con mejoras en el transporte y la movilidad urbana; etc. Por ejemplo, las ciudades inteligentes pueden establecer una red de puntos de acceso urbanos en donde los residentes pueden acceder a capacitación en habilidades digitales, en tanto que la digitalización de los servicios de salud podría mejorar las oportunidades del cuidado de salud y ayudar a los pacientes a conectarse con su historial médico. Las ciudades podrían incluso mejorar los servicios para los grupos vulnerables aprovechando responsablemente los conjuntos de datos sensibles para mejorar su comprensión de las necesidades de estos ciudadanos; sin embargo, dichos datos deben darse con pleno consentimiento, y se deben colocar unas fuertes salvaguardas de privacidad y seguridad. Las tecnologías de las ciudades inteligentes podrían asimismo emplearse para conservar el patrimonio cultural.

Compartir conocimientos e información abierta

Un enfoque abierto de los datos captados por las terminologías inteligentes podría acercar más al gobierno, las empresas y la sociedad civil. Los datos públicos o abiertos —a diferencia de los sensibles datos privados— son aquellos a los que todos pueden acceder, usar y compartir. Un enfoque de acceso abierto para los datos significa permitir al público tener acceso a estos tipos de datos públicos y reutilizables para que aprovechen por sí mismos los beneficios económicos y sociales. Este enfoque podría asimismo brindar transparencia y reforzar la rendición de cuentas y la confianza entre la ciudadanía y el gobierno, por ejemplo al mostrar el uso dado a los fondos públicos. Además de los datos abiertos, el diseño del software que subyace a la infraestructura de una ciudad inteligente puede compartirse con el público a través de un diseño de código abierto y estándar abierto. Código abierto se refiere a una tecnología cuyo código fuente está libremente disponible para el público, de modo tal que cualquiera puede revisarlo, replicarlo, modificarlo o extenderlo. Los estándares abiertos son directrices que ayudan a asegurar que la tecnología sea diseñada ante todo para ser de código abierto.

Participación ciudadana

Las ciudades inteligentes pueden alentar a la ciudadanía a tomar parte de modo más activo en sus comunidades y su gobernanza, al facilitar oportunidades de voluntariado y de compromiso con la comunidad, así como solicitando retroalimentación acerca de la calidad de los servicios y la infraestructura. Conocidas a veces como “e-participación”, las herramientas digitales pueden reducir las barreras entre los ciudadanos y la toma de decisiones, facilitando así su participación en el diseño de leyes y estándares, en la elección de iniciativas urbanas, etc. Las Naciones Unidas han identificado tres pasos en la -participación: e-información, e-consulta y e-toma de decisiones.

Inicio

Riesgos

El uso de tecnologías emergentes podría también crear riesgos en la programación de la sociedad civil. Esta sección describe cómo distinguir los posibles peligros asociados con las ciudades inteligentes en el trabajo de DRG, así como de qué modo mitigar las consecuencias involuntarias y voluntarias.

Vigilancia y participación forzada

Como ya se indicó, las ciudades inteligentes a menudo dependen de cierto grado de vigilancia ciudadana, a cuyas desventajas usualmente se les resta importancia en las campañas de marketing. Un proyecto planeado de ciudad inteligente en Toronto, Canadá, al que se publicitaba como una herramienta con la cual abordar los problemas de asequibilidad y transporte de la ciudad, fue finalmente arruinado por la pandemia de COVID-19 y un escrutinio significativo de la privacidad y el recojo de datos.

En muchos países las personas deben dar su consentimiento informado para que sus datos sean legalmente recogidos, guardados y analizados. Incluso cuando los usuarios optan por darlos a ciegas a una página web o app, hay al menos una opción clara para dejar de hacerlo. Pero en los espacios públicos no hay una forma directa para que la gente decida retirar su consentimiento. ¿Los ciudadanos han consentido a ser vigilados cuando cruzan la calle? ¿Han sido informados de cómo se usarán los datos recogidos acerca de sus movimientos y comportamientos? En las democracias hay oportunidades para presentar un recurso en caso los datos personales recogidos a través de la vigilancia sean mal utilizados, pero en los entornos más autoritarios esto podría no ser así. En China, por ejemplo, el uso de millones de cámaras de vigilancia que reconocen rostros, las formas de los cuerpos y cómo es que la gente camina facilitan el rastreo de las personas para sofocar el disenso.

La discriminación a veces queda facilitada gracias a la tecnología de vigilancia y reconocimiento facial de una ciudad inteligente. La infraestructura de estas ciudades puede dar a las agencias policiales y de seguridad la capacidad de rastrear y poner la mira en ciertos grupos, tales como las minorías étnicas o raciales. Esto sucede en las sociedades democráticas tanto como en las no democráticas. Un estudio de 2019 efectuado por el Instituto Nacional de Estándares y Tecnología de los EE.UU., halló que los algoritmos de reconocimiento facial tienen un pobre desempeño cuando examinan los rostros de mujeres, personas de color, ancianos y niños. Esto resulta particularmente preocupante considerando que muchos departamentos policiales emplean dicha tecnología para identificar sospechosos y efectuar arrestos. Además del reconocimiento facial se usa también la analítica de datos para anticipar posibles lugares de un futuro delito (una práctica a la que se conoce como policía predictiva). Una típica respuesta a este análisis es el incremento en la vigilancia de zonas de “alto riesgo”, las cuales usualmente son barrios con comunidades de menores ingresos y de minorías.

Manejo no ético de los datos y libertad de expresión

El volumen de datos compartidos va creciendo a medida que una ciudad va quedando más conectada digitalmente. Por ejemplo, un usuario de teléfono inteligente podría usar los datos de geoubicación y otros metadatos más con múltiples aplicaciones, las cuales a su vez podrían compartir los datos con otros servicios. Y sin embargo, a medida que las ciudades agregan y procesan los datos acerca de los vecinos, las expectativas de privacidad en la vida cotidiana de la gente van colapsando. La recolección de ciertos tipos de datos, como la información acerca de a dónde ha ido en su carro, o qué tan rápido usualmente maneja, podrían parecer inocuos. Pero cuando se les combina con otros datos se establecen rápidamente patrones que podrían revelar información más sensible acerca de su salud y sus hábitos, su familia y sus redes, la composición de su hogar o sus prácticas religiosas.

La información personal es valiosa para las compañías, y muchas de ellas prueban su tecnología en países con las menores restricciones a los datos. En manos de compañías privadas, los datos pueden ser explotados para focalizar la publicidad, calibrar los costos de los seguros, etc. Hay también riesgos cuando los datos son recogidos por terceros (compañías extranjeras en particular) que podrían encerrar a los usuarios en sus servicios, no compartir información acerca de los fallos de seguridad, tener mecanismos inadecuados de protección de datos, o que mantienen acuerdos de compartirlos con otros gobiernos. Estos últimos también se benefician con el accesso a los datos íntimos de sus ciudadanos: “[L]a información personal recogida como parte de una encuesta de salud podría ser reutilizada por un cliente, digamos un partido político desesperado por ganar una elección”. Según el innovador social y empresario ghanés Bright Simmons, “la lucha por la protección de los datos y los derechos digitales es la nueva lucha por los derechos civiles en el continente”.

Empeoramiento de la desigualdad y marginación

En muchos casos los teléfonos inteligentes y las apps contenidas en ellos facilitan el acceso a los beneficios plenos de una ciudad inteligente. Para 2019, un estimado de cinco billones de personas tenían un dispositivo móvil, y más de la mitad de ellos eran teléfonos inteligentes. Pero estas cifras varían entre los países avanzados y los que están en vías de desarrollo, así como entre comunidades o grupos de una economía dada, potencialmente generando desigualdad en el acceso a los servicios y la participación cívica. Los ciudadanos con menos conocimientos alfabéticos y habilidades de numerismo, o que no hablan la lengua usada por una aplicación, tendrán más dificultades conectándose a través de estas interfaces. La dependencia de apps también aliena a las poblaciones sin hogar, que no podrían cargar sus dispositivos con regularidad, o correrían mayor riesgo de que sus aparatos les sean robados.

El término “brecha digital” por lo general se refiere a la brecha entre las personas que tienen acceso y familiaridad con la tecnología de alta calidad y tecnología segura, y las que no lo tienen. Las ciudades inteligentes a menudo son criticadas por haber sido diseñadas para la elite y privilegiar a quienes ya se encuentran conectados digitalmente. De ser este el caso, dichas ciudades sólo podrían exacerbar la gentrificación y el desplazamiento de quienes no tienen vivienda.

El uso de la vigilancia en las ciudades inteligentes podría también usarse para reprimir a las minorías. Bastante se ha reportado acerca de la vigilancia gubernamental de la población musulmana china de los uigures de Sinkiang.

“Combina los datos —desde los tipos sanguíneos y la altura de las personas, a información acerca de su uso de electricidad y entrega de paquetes— y alerta a las autoridades cuando considera que algo o alguien es sospechoso. Forma parte de la Plataforma Integrada de Operaciones Conjuntas (PIOC), el sistema principal de vigilancia masiva en Sinkiang”.AS SEGÚN FUERA DESCRITO POR HUMAN RIGHTS WATCH

Despotismo de los datos y fallos en la automatización

Se ha acusado a las ciudades inteligentes del “despotismo de los datos.” Si los gobiernos de ciudades pueden acceder a tantos datos acerca de sus ciudadanos, ¿entonces para qué molestarse en hablar con ellos directamente? Debido a posibles discriminaciones algorítmicas, fallos en el análisis e interpretación de datos, o ineficiencias entre la tecnología y los humanos, la dependencia excesiva de la tecnología podría dañar a los más vulnerables de una sociedad.

Se cuenta también con mucha literatura acerca del “Estado de bienestar digital”. Philip Alston, el ex relator especial de las Naciones Unidas para la pobreza extrema y los derechos humanos, ha observado que las nuevas tecnologías digitales están cambiando la relación entre los gobiernos y los más necesitados de protección social: “Las decisiones cruciales de pasar a lo digital han sido tomadas por ministros de gobierno sin consultar, o incluso por funcionarios de departamentos sin que ninguna discusión política significativa tuviese lugar”.

Cuando los servicios humanos básicos sean automatizados y los operarios humanos hayan sido retirados, los problemas de software y pequeños fallos en los sistemas de elegibilidad podrían ser peligrosos y hasta fatales. En la India, en donde muchos servicios de bienestar social y servicios sociales fueron automatizados, un hombre de 50 años falleció de desnutrición debido a un problema con su identificador biométrico de la huella digital, lo que le impidió acceder a una tienda de raciones. “Las decisiones acerca de usted fueron tomadas por un servidor centralizado, y usted ni siquiera sabe qué ha salido mal… La gente no sabe por qué [el apoyo de bienestar social] se ha detenido y tampoco sabe a quién dirigirse para resolver el problema”, explicó Reetika Khera, un profesor asociado de economía en el Indian Institute of Management Ahmedabad.

Estos procesos automatizados asimismo crean nuevas oportunidades para la corrupción. Beneficios tales como las pensiones y salarios, que están ligados al sistema de ID digital de la India (llamado Aadhaar), a menudo se retrasan o no llegan en absoluto. Cuando una mujer de 70 años descubrió que su pensión estaba siendo enviada a la cuenta bancaria de otra persona, el gobierno le dijo que resolviera la situación hablando directamente con dicha persona.

Empeoramiento de los desplazamientos

Al igual que otros proyectos urbanos, el desarrollo de las ciudades inteligentes puede desplazar a los residentes, a medida que los barrios existentes son demolidos para levantar nuevas edificaciones. Se calcula que alrededor del 60% a 80% de la población mundial desplazada forzosamente vive en áreas urbanas (y no en campamentos, como muchos creerían), y que un billón de personas (cifra ésta que se espera se duplique para 2030) en las ciudades en vías de desarrollo viven en zonas de barrios bajos, a las que la ONU define como áreas sin acceso a mejor agua, instalaciones de saneamiento, seguridad, viviendas duraderas y suficiente superficie habitable. En otras palabras, las áreas urbanas son el hogar de grandes poblaciones de los más vulnerables de la sociedad, lo que incluye a las personas desplazadas internamente así como a migrantes que no se benefician de las mismas protecciones legales que los ciudadanos. Las ciudades inteligentes podrán parecer una solución ideal para los desafíos urbanos, pero corren el riesgo de perjudicar aún más a estos grupos vulnerables, y no olvidemos que ellas descuidan por completo las necesidades de las poblaciones rurales.

“Corporatización”: el dominio del sector privado

Las ciudades inteligentes constituyen una enorme oportunidad para el sector privado, desatando los temores de la “corporatización de la gobernanza de la ciudad”. Las grandes compañías de TI, las telecomunicaciones y de manejo de energía como Huawei, Alibaba, Tencent, Baidu, Cisco, Google, Schneider Electric, IBM y Microsoft son las fuerzas impulsoras detrás de la tecnología de las iniciativas de ciudades inteligentes. Como explicara: Sara Degli-Esposti, una research fellow honoraria de la Universidad de Coventry: “No podemos entender las ciudades inteligentes sin hablar de los modelos empresariales de los gigantes digitales… Estas corporaciones ya son entidades globales que escapan en gran medida a la supervisión gubernamental. ¿Qué nivel de control esperan los gobiernos locales ejercer sobre estos jugadores?”.

El papel importante otorgado de este modo a las compañías privadas internacionales en la gobernanza municipal plantea problemas de seguridad para los gobiernos, conjuntamente con las preocupaciones de privacidad de los ciudadanos ya indicadas. Además, la dependencia del software y los sistemas del sector privado podría crear una condición de dependencia del proveedor (cuando se hace demasiado costoso pasarse a otro proveedor). Esta dependencia podría empeorar con el paso del tiempo: a medida que más servicios son añadidos a la red, el costo de pasarse a un nuevo sistema se hace aún más prohibitivo.

Riesgos de seguridad

Conectar los dispositivos a través de una red eléctrica inteligente o de la Internet de la cosas trae consigo serias vulnerabilidades de seguridad para las personas y la infraestructura. Las redes conectadas tienen más puntos de vulnerabilidad y son susceptibles al hackeo y los ciberataques. A medida que los sistemas inteligentes recogen más datos personales acerca de los usuarios (como los historiales médicos), hay un riesgo cada vez mayor de que unos actores no autorizados consigan acceder a esta información. La comodidad de un wi-fi público y abierto también tiene un costo puesto que es mucho menos seguro que las redes privadas. La IdC ha sido ampliamente criticada por su falta de seguridad, debido en parte a su novedad y falta de regulación. Los dispositivos conectados por lo general son fabricados para que sean baratos y accesibles, y que la ciberseguridad no sea la preocupación más grande.

Cuanto más estrechamente vinculada esté la infraestructura, tanto más rápidos y de mayor alcance serán los ataques. La infraestructura vinculada digitalmente como pequeñas redes incrementa los riesgos de ciberseguridad debido al número más grande de operadores y terceros conectados a la red, lo que multiplica las consideraciones de gestión de riesgo de la cadena de suministros. Según Anjos Nijk, director de la Red Europea de Ciberseguridad: “Con la actual velocidad de digitalización de los sistemas de las redes eléctricas… y la velocidad con que nuevos sistemas y tecnologías se conectan a ellas, como la medición inteligente, los vehículos eléctricos que cargan y la IdC, estas redes se han vuelto vulnerables y la ‘superficie de ataque’ se expande rápidamente”. Dañar una parte de un gran sistema interconectado podría producir un efecto de cascada sobre otros sistemas, lo que potencialmente tendría como resultado apagones a gran escala o la desactivación de la crucial infraestructura de salud y transporte. Las redes eléctricas pueden ser abatidas por los hackers, tal como la experimentara la de Ucrania en el ciberataque de diciembre de 2015.

Inicio

Preguntas

Hágase estas preguntas si está intentando entender las implicaciones que las ciudades inteligentes tienen en su entorno laboral, o si está considerando cómo usar algunos aspectos de ella como parte de su programación de DRG:

  1. ¿El servicio en cuestión tiene que ser digital o estar conectado a la red? ¿La digitalización mejorará este servicio para los ciudadanos, y acaso la mejora esperada pesa más que los riesgos?
  2. ¿Se cuenta con programas para asegurar que las necesidades fundamentales de los ciudadanos están siendo satisfechas (acceso a comida, seguridad, vivienda, sustento, educación)?
  3. ¿Qué actores externos tienen el control o acceso a aspectos cruciales de la tecnología y la infraestructura de la que este proyecto dependerá, y con qué medidas de ciberseguridad se cuenta?
  4. ¿Quién construirá y mantendrá la infraestructura y los datos? ¿Hay el riesgo de quedar dependiendo de ciertas tecnologías o de acuerdos con los proveedores de los servicios?
  5. ¿Quién tiene acceso a los datos recogidos y cómo están éstos siendo interpretados, usados y almacenados? ¿Qué actores externos tienen acceso a ellos? ¿Los datos están disponibles para su reutilización legal y segura por parte del público? ¿Cómo están los datos abiertos siendo reutilizados o compartidos públicamente?
  6. ¿Cómo respetarán los servicios de la ciudad inteligente a la privacidad de los ciudadanos? ¿Cómo se obtendrá su consentimiento cuando utilicen servicios que capten datos acerca de ellos mismos? ¿Pueden optar por dejar de compartir esta información? ¿Qué protecciones legales están vigentes en torno a la protección y la privacidad de los datos?
  7. ¿Los servicios inteligentes son transparentes y responsables? ¿Los investigadores y la sociedad civil tienen acceso al funcionamiento “detrás de cámaras” de estos servicios (datos, código, API, algoritmos, etc.)?
  8. ¿Qué medidas se han dispuesto para abordar los sesgos en estos servicios? ¿Cómo asegura este servicio que no exacerbará las barreras socioeconómicas y las desigualdades ya existentes? ¿Qué programas y medidas se han establecido para promover la inclusión?
  9. ¿Cómo respetan y preservan estos desarrollos los sitios y barrios históricos? ¿Cómo se adaptarán los cambios a las identidades culturales locales?

Inicio

Estudios de caso

Barcelona, España

Barcelona a menudo es llamada la mejor práctica de una ciudad inteligente debido a su vigoroso diseño democrático impulsado por la ciudadanía. Su infraestructura de ciudad inteligente consta de tres componentes primarios: Sentilo, una plataforma de recolección de datos de código abierto; CityOS, un sistema para procesar y analizar los datos recolectados; e interfaces de usuario que permiten a los ciudadanos acceder a los datos. Este diseño de código abierto mitiga el riesgo de la dependencia de una empresa y permite que la ciudadanía conserve la propiedad colectiva de sus datos, así como dar input sobre cómo se les procesa. Decidim (“Nosotros decidimos”), una plataforma participativa digital, permite la participación ciudadana en el gobierno mediante la sugerencia y debate de ideas. Barcelona también ha implantado iniciativas de democracia digital y proyecta mejorar el alfabetismo digital de sus ciudadanos. En 2018 Francesca Bria la comisionada de tecnología e innovación digital de Barcelona, comentó la reversión del paradigma de ciudad inteligente: “En lugar de comenzar con la tecnología y extraer todos los datos que podamos antes de pensar cómo utilizarlos, comenzamos alineando la agenda tecnológica con la agenda de la ciudad”.

Belgrade, Serbia

A partir de 2019, el gobierno serbio comenzó a implementar un proyecto de Ciudad segura en la ciudad capital de Belgrado. La instalación de 1,200 cámaras de vigilancia inteligentes, proporcionadas por el gigante tecnológico chino Huawei, lanzó una señal de alerta entre el público, la sociedad civil y hasta algunas de las instituciones de la Unión Europea. El comisionado serbio de información de importancia pública y la protección de los datos personales fue uno de los primeros en hacer sonar la alarma, afirmando que “no hay base legal alguna para la implementación del proyecto Ciudad Segura”, y que para abordar la tecnología de reconocimiento facial y el procesamiento de los datos biométricos sería necesario contar con nuevas leyes. Tal como Danilo Krivokapić, director de la Fundación SHARE, una organización de derechos digitales con sede en Belgrado, observara, “El público no fue informado del ámbito técnico o precio del sistema, las necesidades específicas que buscaba abordar, o las salvaguardas que serían necesarias para mitigar los posibles riesgos para los derechos humanos”. En un esfuerzo por mejorar la transparencia del proyecto, la Fundación SHARE desarrolló un mapa colaborativo que mostraba ubicaciones verificadas de cámaras y sus características técnicas, lo que terminó difiriendo sustancialmente de una lista de ubicaciones proporcionada por los funcionarios. Dos años después del lanzamiento del proyecto de Ciudad Segura en Belgrado, un grupo de MEP le dirigió una carta al ministro del interior del Parlamento Europeo para manifestar su preocupación de que Belgrado se convirtiera en “la primera ciudad de Europa en tener la inmensa mayoría de su territorio cubierto por técnicas de vigilancia masiva”.

Konza, Kenia

La Ciudad Tecnológica de Konza, el emblema de Visión 2030, el plan de desarrollo económico de Kenia, promete ser una “ciudad de clase mundial, propulsada por un floreciente sector de tecnologías de la información y la comunicación (TIC), infraestructura superior confiable, y sistemas de gobernanza favorable a las empresas”. Los planes para la ciudad incluyen la recolección de datos con dispositivos inteligentes y sensores insertados en el entorno urbano para informar el suministro de servicios mejorados digitalmente. Según la página web oficial de Konza, la población de la ciudad tendrá acceso directo a los datos recolectados (como mapas de tráfico, advertencias de emergencias e información acerca del consumo energético y de agua), lo que permitirá a la ciudadanía “participar directamente en las operaciones de la ciudad, practicar patrones de vida más sostenibles, y mejorar la inclusividad general”. Entre el anuncio de los planes para el desarrollo de Konza en 2008 y el viaje de un periodista a la ciudad en 2021, es poco el avance que parece haberse realizado no obstante las pretensiones de que la ciudad habría creado 100,000 puestos de trabajo para 2020, y generado $1 billón al año para la economía keniana. Y sin embargo, las inversiones realizadas por Corea del Sur podrían haberle insuflado nueva vida al proyecto en 2023, puesto que nuevos proyectos estaban listos para realizarse, entre ellos el desarrollo de un sistema inteligente de transporte (SIT) y un centro de control integrado.

Neom, Arabia Saudita

En 2021, el príncipe heredero saudita Mohamed bin Salmán reveló los planes iniciales para The Line, una ciudad lineal futurista que sería construida verticalmente, no tendría pistas ni autos y funcionaría sólo con energía renovable. The Line forma parte del proyecto de megaciudad Neom de $500 billones, el cual ha sido descrito no sólo como una ciudad “inteligente” sino también como una “cognitiva”. Esta ciudad cognitiva se alza sobre tres pilares: “la capacidad de ciudadanos y empresas para conectarse digitalmente a cosas físicas; la capacidad de poder procesar o analizar estas cosas; y la capacidad para contextualizar, usando dicha conectividad para propulsar nuevas decisiones”. La documentación de planificación preparada por consultores de los EE.UU. incluía algunas tecnologías que ni siquiera existen aún, como taxis voladores, la “siembra de nubes” para producir lluvia y sirvientas robot. Además de ser algo fantástico, el proyecto fue también controversial desde su inicio. Alrededor de 20,000 personas, entre ellos miembros de la tribu indígena howeitat, enfrentaban su reubicación forzada debido a las construcciones para el proyecto; según Al Jazeera, un prominente activista howeitat fue arrestado y encarcelado en 2020 por la negativa de la tribu a ser reubicada. La preocupación también se debe al fortalecimiento de los lazos entre el príncipe heredero y Xi Jinping, el secretario general del Partido Comunista de China, quien aceptó brindarle a Arabia Saudita una poderosa tecnología de vigilancia. Marwa Fatafta, gerente de políticas en Access Now, una organización de derechos digitales con sede en Berlín, advirtió que las capacidades de la ciudad inteligente podrían ser desplegadas como una herramienta para la vigilancia invasiva por parte de los servicios de seguridad del Estado. Esto podría incluir el uso de la tecnología de reconocimiento facial para rastrear los movimientos en tiempo real y vincular esta información con otros conjuntos de datos, como la información biométrica. Arabia Saudita tiene un historial demostrado del uso de la tecnología para reprimir las opiniones en línea, lo que incluye el uso del spyware Pegasus para monitorear a los críticos y el robo de los datos personales de usuarios de Twitter que criticaron al gobierno.

Singapur

La iniciativa Smart Nation de Singapur fue lanzada en 2014 para combinar TIC, redes y datos para desarrollar una solución para una población envejecida, la densidad urbana y la sostenibilidad energética. En 2023, Singapur fue nombrada la mejor cuidad del Asia por el índice de ciudades inteligentes del Institute for Management Development, que ordena a 141 ciudades según su uso de la tecnología para alcanzar una mejor calidad de vida. La infraestructura de ciudad inteligente de Singapur incluye vehículos autónomos; robots patrulleros programados para detectar comportamientos “indeseables”; sistemas de gestión de servicios domésticos; robots que trabajan en construcción, bibliotecas, estaciones del metro, cafeterías y en la industria médica; sistemas de pago sin efectivo; y servicios de realidad aumentada y real. Cientos de aparatos, sensores y cámaras esparcidos a lo largo de 160 kilómetros de autopistas y túneles (a los que se conoce colectivamente como el Sistema Inteligente de Transporte o SIT) reúnen datos para monitorear y manejar los flujos de tráfico y hacer que las pistas sean más seguras. La iniciativa de e-salud de Singapur incluye un portal en línea que permite a los pacientes reservar citas y renovar recetas, servicios de telemedicina que permiten a los pacientes consultar a los médicos en línea, y dispositivos de IdC vestibles que monitorean el avance de los pacientes durante la telerehabiitación. En un país en donde se calcula que el 90% de la población tiene un teléfono inteligente, la app Smart Nation de Singapur es una plataforma de una sola parada en donde se puede acceder a una amplia gama de servicios e información del gobierno.

Toronto, Canadá

En 2017, Toronto le otorgó un contrato a Sidewalk Labs, una subsidiaria de ciudad inteligente de Alphabet, la compañía matriz de Google, para que convirtiera el litoral oriental de la ciudad en una utopía de alta tecnología. El proyecto buscaba promover un nuevo modelo de desarrollo inclusivo que se “esforzará por alcanzar los más altos niveles de sostenibilidad, oportunidad económica, asequibilidad de las viviendas y una nueva movilidad”, y que además sirviera como un modelo para la resolución de los problemas urbanos en ciudades de todo el mundo. Sidewalk Labs planeaba levantar viviendas sostenibles, construir nuevos tipos de carreteras para vehículos autónomos, y usar sensores para recoger datos e informar el uso de energía, ayudar a detener la contaminación y disminuir el tráfico. Sin embargo, el proyecto enfrentó constantes críticas de los habitantes de la ciudad e incluso del comisionado de información y privacidad de Ontario, debido a la forma en que la compañía enfocaba la privacidad y la propiedad intelectual. Un experto en privacidad dejó su papel consultor en la iniciativa para “enviar una fuerte declaración” acerca de las cuestiones de privacidad que el proyecto enfrentaba, luego de enterarse de que terceros podrían tener acceso a información identificable reunida en el distrito del litoral. El proyecto fue finalmente abandonado en 2022, supuestamente debido a la incertidumbre económica sin precedentes provocada por la pandemia de COVID-19.

Inicio

Referencias

A continuación encontrará los trabajos citados en este recurso.

Recursos adicionales

Inicio

Categories

Digital Development in the time of COVID-19