En oportunidad del nuevo orden cotidiano que significó la pandemia de Covid-19 para las sociedades muchos gobiernos aprovecharon para adoptar medidas de control mediadas por la tecnología. El peligro del autoritarismo digital no solo se extiende a escala nacional sino que busca incidir a escala internacional y se cierne sobre derechos y libertades conquistadas por los individuos y las sociedades.

Aunque más ampliamente conocido no es sólo a través de las redes sociales que los gobiernos pueden beneficiarse, para ejercer vigilancia sobre sus ciudadanos. El uso sesgado de la inteligencia artificial; algoritmos, aprendizaje automático, big data e internet de las cosas en democracias contemporáneas representa una mezcla de oportunidades con aprensión.

Para empezar, las plataformas en línea se rigen cada vez más por algoritmos. Un algoritmo agrega un conjunto de datos y lo analiza para responder a una pregunta o problema delimitado. Los algoritmos están entrenados. Esto significa que muy pocos seres humanos son plenamente conscientes de cómo una computadora está procesando sus datos y dónde se enviará esa información. Esto es algo capaz de inhibir la participación política de los ciudadanos, por temor a la vigilancia de sus actividades. De la misma manera que la vigilancia puede orientarse a la protección y la seguridad, cuando se consideran acciones gubernamentales, también puede ofrecer amenazas como manipulación, discriminación y control social.

Al mismo tiempo, los algoritmos son capaces de inducir a los ciudadanos a tomar medidas de acuerdo con modelos predefinidos. En otras palabras, ellos pueden contribuir a que los ciudadanos se sientan menos alentados a participar activamente en la vida política por miedo a la vigilancia de sus redes, así como a individualizar los datos que los usuarios desean recibir, formando una “burbuja” de desinformación.

Además, los algoritmos también obligan a los ciudadanos a comportarse de maneras predefinidas. Zuboff (2019) tiene una teoría conceptual para entender este fenómeno. Según la autora, las plataformas ya no ganan dinero produciendo productos que benefician al usuario final. Ellas recopilan más datos de los necesarios para crear un producto que se pueda vender a otras empresas. Esto se llama “superávit conductual”. Otras empresas utilizan el superávit conductual para predecir cómo las personas pueden comportarse en el futuro, comprar ciertos productos o votar por ciertas ideas. Cuanto mejor sea el pronóstico, más valioso será el superávit conductual. Como resultado, las plataformas buscan un nuevo tipo de poder de mercado que Zuboff llama instrumentalismo. Esto se “define como la instrumentación e instrumentalización del comportamiento con fines de modificación, previsión, monetización y control” (Zuboff, 2019, p. 352).

No sólo las empresas que controlan estas plataformas en línea, sino que los propios gobiernos se dieron cuenta de las oportunidades que se escondían en este nuevo mundo en línea. Y eso es lo que sostiene el recién publicado informe “Artificial Intelligence and Democratic Norms Meeting the Authoritarian Challenge” del National Endownment for Democracy (NED) (2021), una fundación privada sin fines de lucro dedicada al crecimiento y fortalecimiento de las instituciones democráticas a nivel mundial.

En su resumen ejecutivo, el documento presenta una reflexión sobre las relaciones internacionales en el mundo, en el cual la inteligencia artificial y las tecnologías a ella relacionadas son piezas centrales. Debido a su relevancia, el I.A. y las tecnologías pasaron a ser herramientas esenciales para los regímenes autoritarios, que buscan influir en la arena internacional. Y lo hacen a través de manipulación y desarrollo de un sistema de vigilancia global, creado de acuerdo con sus propios intereses.

Iniciada en 2020, la pandemia de Covid-19 fue la oportunidad que tuvieron los gobiernos para profundizar sus estrategias de monitoreo ciudadano, como el uso de: seguimiento a través de aplicaciones de geolocalización; reconocimiento facial; biometría y análisis de big data; solo por nombrar algunas. Se trata de los llamados competidores autoritarios digitales, es decir, gobiernos de países que, además de crear sistemas digitales autoritarios en sus países, buscan propagar estos modelos en el entorno internacional para crear un sistema de gobernanza basado en la vigilancia.

A partir de este contexto, la sociedad civil organizada desempeñaría un papel relevante en la prevención de la escalada del sistema de gobernanza internacional, basado en la vigilancia. En primer lugar, guiar el desarrollo de nuevas capacidades digitales. Es decir, señalar los límites e identificar para qué sirve una tecnología determinada. Presentando también garantías de preservación de las libertades básicas y gobernanza democrática.

El estudio se centra en esta y otras cuestiones relacionadas con la vigilancia, en democracias frágiles. Además de presentar nuevos modelos de soberanía democrática digital, a diferencia de los modelos de regímenes autoritarios anteriores, que se basaban en un modelo de control social del Estado por medio de la Internet.

Inicialmente, se celebra el debate sobre las oportunidades y limitaciones de la inteligencia artificial y las tecnologías relacionadas. Entre las ventajas, se puede mencionar la capacidad de procesar y analizar grandes volúmenes de datos, imágenes y discursos y la toma de decisiones limitadas, con respecto a temas logísticos y tecnológicos inteligentes para el hogar. Entre sus limitaciones se encuentran el hecho de que el componente humano en la toma de decisiones conscientes y la necesidad constante de una gran cantidad de datos todavía son necesarios.

En un contexto de creciente autoritarismo digital tales limitaciones se han superado mediante el uso de la automatización y la participación humana, en la adecuación de nuevos recursos, a las necesidades de los gobernantes. Desde este punto de vista, uno de los desafíos planteados a la sociedad civil organizada en los países democráticos es construir sistemas digitales que permitan avances sociales y económicos, pero que no fomenten el autoritarismo.

Además, el documento llama la atención sobre los bias creados por los algoritmos, que podrían evitarse con una buena curación de los datos analizados. Sobre el tema, O’Neil (2017) argumenta que los algoritmos definen su propia realidad y utilizan esta realidad para justificar sus resultados. No importa si corresponde o no al mundo real, ya que hay pocos ciclos de revisión (humanos o no) capaces de corregirlos. Noble (2017) lo complementa, una vez que habla de cómo los conjuntos de datos que reflejan el malestar de la sociedad se presentan como resultados de búsqueda “neutrales” en Internet. Esto es importante porque afecta al entorno de la información en el entorno digital a medida que se mejoran las visiones del mundo. Es decir, además de dejar a los ciudadanos más vulnerables a la manipulación (Achen y Bartels, 2017), contribuyendo a la reducción de la participación política por miedo a la vigilancia y generando desinformación, sigue siendo un movimiento que amenaza la libertad de elección (Zuboff, 2019).

El informe va de encuentro a esta literatura, al plantear la cuestión de los silos de información, que, en una democracia, serían las diferentes ramas del gobierno y las instituciones independientes, que ejercen el poder. Por un lado, este tipo de organización hace que el proceso de elección sea más lento y confuso, por otro lado, trae beneficios como evitar que el poder se centre en emplumar uno de los poderes. Lo mismo sucede al analizar la relación entre algoritmos y datos.

A continuación, el documento sugiere que el papel de la sociedad civil organizada sería pensar cuidadosamente en dónde surgirán las nuevas posibilidades de uso autoritario de la IA y sus tecnologías asociadas, así como qué tipos de silos son necesarios para su prevención.

En cuanto al debate de datos, el informe señala no sólo los límites éticos, sino también los límites territoriales al almacenamiento, análisis y movimiento de la información personal de los ciudadanos, sobre los que la sociedad civil debe estar atenta. Desde esta perspectiva, las fronteras entre países desempeñan un papel importante y pueden revelar cómo los países pueden controlar e interactuar con regímenes digitales externos. En otras palabras, es a partir de esta interacción que será posible establecer los límites y formas de uso de los datos personales. La sociedad civil sería responsable de impulsar la cooperación en el uso de datos sólo con los gobiernos que cumplan con normas específicas para su uso, por ejemplo.

Por último, el informe señala importantes contribuciones que debe hacer la sociedad civil en la supervisión, adecuación y aplicación de medidas que puedan frenar la escalada de la vigilancia y los regímenes autoritarios.

Esa es ciertamente una lectura indispensable en los días de hoy, especialmente cuando analizado el surgimiento de nuevos actores internacionales, con poder y capacidad de ejercer influencia en el escenario mundial.

 

ReferenciasAchen, C. H., & Bartels, L.M. (2017). Democracia para realistas: por qué las elecciones no producen un gobierno receptivo. Oxfordshire: Prensa de la Universidad de Princeton.

Noble, Ee.UU. (2018). Algoritmos de opresión: cómo los motores de búsqueda refuerzan el racismo. Nueva York, NY: Prensa de la Universidad de Nueva York.

O’Neil, C. (2017). Armas de destrucción matemática: cómo el Big Data aumenta la desigualdad y amenaza la democracia. Londres: Penguin Books.Zuboff, S. (2019). La era del capitalismo de vigilancia: la lucha por un futuro humano en la nueva frontera del poder. Londres: Libros de perfil.

Paula Gomes Moreira

Doctora en Relaciones Internacionales, por la Universidad de Brasilia (UnB). Trabajó como investigadora en el Observatorio Político Sudamericano (Opsa) y en el Instituto de Investigación Económica Aplicada (Ipea). Actualmente es coordinadora de la Conferencia Americana de Organismos Electorales Subnacionales (Caoeste), en Brasil, de la Transparencia Eleitoral América Latina y consultora contratada en la Organización de los Estados Americanos (OEA).