La libertad de expresión enfrenta la paradoja de atentar contra la libertad cuando se ve desvirtuada en la malversación del sentido que implican las fake news.

La nueva comunicación política se da en un entorno virtual, global y multilocalizado, donde interactúan redes hipermediadas de acción colectiva junto con ciudadanos comunes, partidos políticos, medios de comunicación y bots conversacionales, tanto desde la web conocida por todos como desde la darknet o deepweb.

En este contexto, hablar de fakes news como algo vinculado al mundo digital se ha incorporado a nuestra cultura, olvidando que las noticias falsas existen desde siempre y se han diseminado desde antes de la aparición de Internet. Ya sea porque se las produce, se las lee o se las reenvía, se las combate o se las tome en broma, forman parte de nuestras preocupaciones y ocupaciones. Tanto se han incorporado a nuestra vida diaria que en el año 2017 “fake news” fue elegida Palabra del año por el diccionario Collins.

La palabra ‘fake’ (falso) originalmente fue utilizada como parte de la jerga que hablaban los criminales que pretendían ocultar sus actividades ante terceros. Empezaron a utilizar la palabra como verbo y aludía a la falsificación de algo, por ejemplo, documentos. Es posible que la palabra provenga del verbo italiano facciare (hacer) y puede haber llegado al inglés como parte de una jerga llamada Polari. La asociación de fake con news (noticias) se inició en el ambiente de la comedia, y alrededor del año 2005 el término comenzó a aplicarse a las noticias falsas que circulaban con intenciones maliciosas en lugar de satíricas.

La especialista en Comunicación y Periodismo Claire Wardle describe a las fake news como un ecosistema completo de información y estableció siete categorías ordenadas según el grado de intención del engaño: 1) Sátira o parodia, 2) Conexión falsa, 3) Contenido engañoso, 4) Contexto falso, 5) Contenido impostor, 6) Contenido manipulado, 7) Contenido inventado. Por su parte, Eliot Higgins, fundador de la red de investigación online Bellingcat, identifica cuatro motivos que motivan a los creadores de noticias falsas: Pasión, Política, Propaganda y Pago.

Propagación

Las redes hipermediadas de acción colectiva han desempeñado un papel fundamental en la rebelión que se produjo en algunos países y han puesto en evidencia cómo varios agentes que actúan autónomamente pueden organizarse en red provocando conflictos multicanales estructurados por distintas vías de insurgencia.

Por otra parte, el carácter global y multilocalizado de las redes sociales y otros espacios virtuales facilitan el intercambio en tiempo real entre personas y colectivos situados en distintos lugares geográficos. Primera dificultad para la aplicación de legislación local a actores que se sitúan en múltiples territorios. Por otro lado, no siempre hablamos de actores en tanto personas de carne y hueso: podemos estar haciendo referencia a bots conversacionales, a inteligencias artificiales que interactúan con humanos y que resultan muy difíciles de detectar.

Las plataformas y navegadores desde donde se interactúa también presentan características que dificultan la identificación de quien las utiliza: se puede estar navegando desde redes de comunicaciones distribuidas de baja latencia y superpuestas sobre internet, es decir, desde la darknet. En estos casos, se asegura el anonimato y se oculta la dirección IP (aunque Edward Snowden afirma que la Agencia de Seguridad de EEUU logró romper el anonimato de una de estas redes, TOR).

Impacto

Respecto del impacto de las fake news en los votantes, el Pew Research Center realizó un estudio en 2016 que reveló que el 64 por ciento de los votantes en EE UU había tenido “mucha confusión” debido a las fake news, pues no sabía si se trataba de hechos reales o no. El 24 por ciento tuvo “cierta confusión”; y solo el 6 por ciento supo que se trataba de una noticia falsa. El estudio encontró que el 23 por ciento de las personas había compartido las noticias falsas en sus propias redes; el 14 por ciento dijo haber compartido estas noticias sabiendo que eran inventadas, y el 16 por ciento compartió el contenido pensando que era información verdadera y después supo que no era cierta.

Verificación

En algunos países se han organizado propuestas como  ElectionLand (Estados Unidos) o CrossCheck (Francia) que son proyectos de verificación de noticias que surge de la asociación entre First Draft y el Google News Lab. Ambas propuestas han ganado el Online Journalism Award 2017: Electionland ganó en la categoría 2017 Noticias planificadas / eventos (Grandes redacciones), mientras que CrossCheck ganó el premio 2017 Noticias planificadas / eventos (Pequeñas redacciones). En este video pueden conocer un poco más sobre Electionland.

En México surgió #Verificado2018, que fue una iniciativa en la que participaron 60 medios de comunicación, organizaciones de la sociedad civil y universidades, cuyo objetivo fue combatir las fake news.  Se denomina “Verificado” retomando el nombre que un grupo de jóvenes utilizó en ocasión del sismo del 19 de septiembre de 2017 para informar y conectar a quienes necesitaban ayuda y a quienes la podían proporcionar. Para evitar la difusión de datos falsos, comenzaron a etiquetar las publicaciones con veracidad comprobada con #Verificado19S. Si bien las circunstancias electorales son distintas, las fakes news e información falsa generan confusión en el ciudadano y opacan el escenario, atentando contra la elección libre e informada. Este grupo publicaba información comprobada en una página creada expresamente para este proyecto: Verificado.mx, que estuvo en línea desde el 12 de marzo hasta principios de julio de 2018. También difundieron en sus cuentas de Twitter @verificadoMX y de Facebook/Verificado2018. En Argentina, la organización que se dedica a verificar la autenticidad de las noticias es Chequeado y en Venezuela existe ObserVe (Observatorio de Desinformación, Rumores y Falsas Noticias del Ininco-UCV)

¿Es complicado crear estas conversaciones falsas?

Desde mediados del año pasado se habla de “las elecciones de Whatsapp”: el grado de incidencia es tal en las conversaciones que se desarrollan en esta plataforma que la aplicación es objeto de estudio, análisis y críticas diversas.

Ahora bien, ¿cómo se relaciona nuestro comportamiento en Whatsapp con las fake news? A primera vista, podemos pensar en los abundantes envíos de noticias falsas y la tendencia a reenviarlas tan pronto llegan sin chequearlas siquiera. Pero cuando nos ponemos a analizar las aplicaciones para smartphones que pueden vincularse a los servicios de mensajería (no solamente con Whatsapp), entramos en un terreno desconocido para algunos y utilizado por muchos. Existen apps como Yazzy y Whatsfake que, como dice en el sitio web de esta última, permiten “simular rápidamente conversaciones muy realistas y enviar a todos sus amigos”.

Whatsfake aclara en su promo que “decir la verdad no siempre es la mejor opción”. No se trata de demonizar las aplicaciones o de matar al mensajero. Como muchos desarrollos, se han creado para diversión, juego o burlar a los amigos. De lo que hay que estar pendientes es del uso que puede darse a estas apps y estar atentos. Otra de las aplicaciones,Yazzy, informa desde el sitio de descarga de Google Play que “la aplicación soporta estos tipos de conversaciones: SMS de iPhone (estilo iOS7);Telegram; Facebook Messenger; Estados de Facebook con comentarios y likes; Tweets con soporte de hashtags y menciones; búsquedas de Google; Traductor de Google; Ask.FM; Instagram.

¿Es complicado crear estas conversaciones falsas? La verdad es que no. Y si aún habiendo descargado las aplicaciones no sabes cómo hacerlo, existen diversos artículos en la web que te enseñan cómo crear conversaciones falsas. Entonces, crear conversaciones con noticias falsas y luego hacer broadcasting con ellas no es una ciencia compleja. Ya no basta con mirar y analizar las granjas de bots y los grandes operadores para estudiar por dónde puede venir el fraude: un adolescente o una abuela en su casa con un teléfono pueden generar todas las fakes news que deseen.

¿Fake news al viejo estilo?

Mientras que hay países donde Internet atraviesa la vida diaria y los ciudadanos tienen la posibilidad de conectarse y utilizar las redes sociales sin restricciones, en aquellos donde la libertad de expresión y el acceso a Internet está limitado, la referencia a las noticias falsas tiene que ver más con el contenido que con la viralización de las mismas. Tomemos por ejemplo a Cuba:

El 18 de enero de este año, el Presidente Miguel Díaz-Canel tuiteó “Muy bien por Silvio, contundente en sus argumentos”.

Este tweet, en realidad, es un comentario sobre el tweet del día anterior. de Carlos de Cossio, director general de Estados Unidos en el Minrex. A su vez, el tweet de Carlos de Cossio aludía a una respuesta respecto de la situación de Venezuela que Silvio Rodriguez, defensor del régimen cubano, habría dado a Rubén Blades y al efecto acompañaba el link del medio donde se reproducía erróneamente esta respuesta: una publicación chilena, Cooperativa, del 27 de Febrero de 2014, es decir, de cinco años atrás.

Vale aclarar: no solo esta “respuesta” no era actual sino que tampoco había sido realizada por el mencionado Silvio Rodriguez. La supuesta respuesta del cantante había sido redactada por el escritor Guillermo Rodríguez Rivera y había sido publicada en el blog de Rodriguez, Segunda Cita, en 2014.

Pero esto no se detuvo allí: medios cubanos, como Prensa Latina, reprodujeron el tuit de Diaz-Canel y dieron por sentado que la respuesta de Silvio Rodriguez se dirigía a las últimas declaraciones de Blades, quien en una carta que publicó en sus redes sociales había afirmado: “Nicolás Maduro actúa hoy como un dictador y no como presidente”.

Toda esta confusión hizo que Blades saliera a aclarar la cuestión: se trataba de un hecho pasado y falso del año 2014, que atribuía ese intercambio de opiniones entre los cantantes. Tanto Silvio Rodríguez como Rubén Blades aclararon que no habían discutido sobre la situación política en Venezuela en aquel entonces. “Está basada en una mentira más vieja que las medias que llevo puestas”, señaló el cantante panameño. “Si los medios hubieran hecho un rastreo profesional de la fuente de la noticia, no hubieran cometido tan infantil equivocación. Y les recuerdo que ahora, con la internet, hay registros y memoria”.

También expresó Blades en una carta a Rodríguez publicada en su página web: “Qué pena que hayan hecho equivocarse a Díaz-Canel, el recién estrenado presidente de tu país, a quien ponen a felicitarte por los “contundentes argumentos”. Parece que al presidente hasta las “fake news” le llegan con años de retraso”

Inteligencia artificial y deep fakes

El 30 de octubre de 1938 el entonces joven Orson Welles puso al mundo al borde de la histeria, provocando pánico entre miles de personas a quienes convenció de que Estados Unidos estaba siendo invadido por un ejército de alienígenas. A eso de las ocho de la noche, en el Estudio Uno de la Columbia Broadcasting en Nueva York, Welles iba a interpretar la novela del escritor británico H.G. Wells, “La guerra de los mundos”. Presentaron la radionovela contada en forma de noticiero de último momento y muchos radioyentes que sintonizaron más tarde la emisora o no prestaron atención al inicio, creyeron que efectivamente estaban siendo invadidos por extraterrestres. Se estima que cerca de 12 millones de personas escucharon la transmisión y muchísimas más fueron presas del pánico, huyendo de sus casas y colapsando carreteras y comisarías. Durante varias horas se recibieron mensajes que decían haber visto a los extraterrestres.

¿Pueden imaginarse el impacto si esa supuesta invasión se transmitiese en 2019, con televisores de alta definición e imágenes que confundan al ojo humano, sin poder distinguir lo verdadero de lo falso? ¿Y su viralización en redes sociales?

La inteligencia artificial (IA) está ayudando a que los videos logren lo que ya se consiguió con la fotografía: engañar al ojo humano con imágenes sintéticas. Por ejemplo, según Martin Enthed, Manager del IKEA Digital Lab, alrededor del 75% de todas las imágenes de productos de la marca IKEA son gráficos de inteligencia artificial y se presentan en resolución tan alta, que son excelentes para todo tipo de uso.

Pero eso no es todo: también pueden manipularse las imágenes humanas y crear retratos de personas inexistentes con la técnica conocida como deepfake. El nombre de deepfake proviene de deep learning, que significa aprendizaje profundo, siendo la principal corriente de desarrollo de la IA. Se trata de una técnica basada en sintetizar la imagen humana combinando y superponiendo imágenes creadas digitalmente, utilizando para ello algoritmos de aprendizaje no supervisados y vídeos o imágenes ya existentes. El origen de esta técnica se da en el campo de la investigación con aplicaciones prácticas en el cine. Por ejemplo, en la última película de la saga Star Wars, Carrie Fisher, la conocida princesa Leia, había fallecido durante su rodaje, por lo que hubo que hacer uso de esta técnica para que apareciese en la película.

Scarlett Johansson conoce de qué se trata el aspecto oscuro de las deepfakes: ha sido atacada por este nuevo tipo de acosador que utiliza inteligencia artificial para crear videos pornográficos sorprendentemente convincentes (pero, por supuesto, falsos). Johansson ha llegado a la triste conclusión de que tratar de luchar contra estos videos “falsos” es “infructuoso” y una “causa perdida”. Pero ella no es la única: el Washington Post destacó recientemente la historia de una mujer de unos 40 años que fue víctima de similar falsificación.

También hubo un video falso, muy realista, de Michelle Obama creado con un programa llamado FakeApp, que superpuso su rostro en el cuerpo de una actriz de películas pornográficas. Fakeapp es un programa que creó un desarrollador anónimo utilizando software de código abierto escrito por Google y permite crear deepfakes si contamos con algunas imágenes de la persona que queremos simular en el vídeo (cuantas más imágenes tengamos, mejor) la inteligencia artificial del programa aprende de esas imágenes y es capaz de recrear un rostro sobre otro, como una máscara inteligente.

Las “deepfakes” o los “medios sintéticos” podrían llegar a evitar capas de protección y presentarse como reales, convirtiéndose en una herramienta política de desinformación. En este rumbo, el actor y cineasta Jordan Peele y su cuñado Jonah Peretti, fundador de BuzzFeed, idearon un experimento para advertir de los potenciales peligros de aplicar la inteligencia artificial (IA) para fabricar noticias falsas en formato audiovisual (audiovisual): hicieron nada menos que un video de Barack Obama diciendo muchas cosas inconvenientes. En este link pueden ver el video deepfake de Obama: https://www.youtube.com/watch?v=cQ54GDm1eL0

Si bien es posible que algunos de los videos se consideren difamación, dado que los clips no representan datos reales robados, no existe una violación de las leyes de privacidad en EEUU. Deep fakes y fake news constituyen temas que abogados, jueces, legisladores y todos aquellos vinculados a la administración de justicia y las comunicaciones deberían comenzar a considerar de manera innovadora y abarcativa.

Abogada. Consultora y capacitadora en innovación democrática, participación política e incidencia mediante estrategias digitales. Observadora Electoral Internacional. Directora de Relaciones Internacionales de Transparencia Electoral, Coordinadora Regional de RedLad y docente del Instituto Lebensohn y FLACSO de Argentina. Miembro del Grupo de Mujeres Líderes de las Américas (Fundación Documentalistas – OEA Parlamentos). Galardonada como Mujer Lideresa Iberoamericana 2018 (Red de Mujeres Iberoamericanas)