El espacio abierto a la libertad de expresión inaugurado con la masificación y fragmentación en la intervención en el debate público que significaron las redes sociales en oposición al monopolio centralizado de los medios masivos de comunicación peligra en la medida en que las regulaciones autoimpuestas por las corporaciones devienen línea editorial. El control sobre contenidos no solo es ejercido en regímenes autoritarios de economías cerradas; aunque de otra manera, las sociedades abiertas y democráticas se debaten también entre libertad y censura.

Durante la última década te has dedicado a estudiar cómo los regímenes híbridos y autoritarios ejercen prácticas de control de la información y las tendencias al establecimiento de políticas de control y securitización de internet ¿Cuáles son tus principales hallazgos al respecto? 

En principio todos los regímenes políticos intentan de alguna manera regular las comunicaciones, internet o la web. En algunos países hay una fuerte tradición de independencia de los medios y el derecho a la libertad de expresión es tratado como uno de los pilares fundamentales del espacio público democrático. Pero, aun así, siempre hay presión, siempre hay un interés en poner límites a un espacio que ha sido no regulado durante sus primeros treinta años de existencia. En la medida en que la web permitió la masificación del acceso a internet empezó a ser relevante políticamente. Esa relevancia empieza a ser un poco mayor cuando aparecen los social media; primero los blogs, luego Facebook y Twitter. YouTube es un poco más antiguo, sin embargo, al principio era mucho más entretenimiento y no era un espacio tan político.

En la medida en que la agenda social y la agenda política empiezan a estar presentes en todas las plataformas, todos los gobiernos miran a este espacio y empiezan a evaluar y debatir la necesidad de regularlo, la necesidad de establecer límites. En países democráticos, en democracias consolidadas eso es muy difícil, porque generalmente existen leyes y mecanismos para salvaguardar la libertad de expresión. En algunos países, la libertad de expresión incluso está garantizada por derechos constitucionales, que hacen complicado que el poder político pueda ejercer abiertamente controles sobre este tipo de espacio. En los países que llamamos regímenes híbridos, democracias frágiles, países que están en proceso de regresión democrática o en franco proceso de autocratización, es mucho más fácil introducir controles sobre internet.

En los países autoritarios, al existir una serie de restricciones a los derechos civiles y políticos en otros ámbitos, incluso a la participación en partidos políticos, a la libertad de asociación, a la libertad de expresión y a la libertad de prensa, trasladar esas regulaciones a los espacios de internet fue mucho más fácil durante las primeras dos décadas de nuestro siglo.

El prototipo del modelo autoritario de control de internet es China. Este país tiene amplios mecanismos de bloqueo de contenidos, de filtrado por palabras, de filtrado por temas, de bloqueo de manera sistemática a un conjunto bastante extenso de páginas web que vienen de Occidente, o el filtrado de palabras clave que tiene que ver con temas que son considerados sensibles, críticos, peligrosos para China. Por ejemplo, todo lo que tenga relación con derechos humanos está bloqueado; todo lo que tiene que ver con el Tibet está bloqueado. Recientemente hemos visto cómo todo lo que está relacionado con la epidemia del covid-19 fue bloqueado, especialmente en la primera fase de la epidemia.

En países como Cuba, lo que observamos es que la restricción tenía que ver más con el acceso, hay barreras de entrada. Simplemente no hay infraestructura para el acceso de la población en general a internet. Eso es posible en economía poco conectada. Países como Cuba, algunos países del sudeste asiático o de África, encontraron que no desplegar infraestructura de acceso era la manera más fácil de prevenir ese espacio de libertad de expresión. Insisto, esto solo es posible en economías cerradas, economías que no dependen de constante intercambios de información vía digital, economías donde la base tecnológica es muy baja; pero economías más desarrolladas, más sofisticadas, no puedes restringir el acceso a internet porque es el canal en que la sociedad desarrolla una amplia variedad de sus actividades económicas. Entonces, en estos países que están insertos en mercados internacionales, y no pueden aislarse de esos mercados, que tampoco quieren pagar el costo del bloqueo y la censura generalizadas, países que pretenden ser democráticos, buscan mecanismos que en la literatura se llamaron “mecanismos de control de segunda generación”. Entre estos mecanismos, se encuentra establecer impuestos a internet para encarecer los costos del acceso; no queda prohibido el acceso, existe la infraestructura, pero un porcentaje restringido de la población puede tener acceso. Muchos países establecieron regulaciones a intermediarios, por las cuales los medios de comunicación, las plataformas que ofrecían servicios como foros o blogs que tenían comentarios eran responsables de esos comentarios, eso conllevaba que esas terceras partes se convirtieran en censores, lo que liberaba de responsabilidad al Estado o el Gobierno; ellos no estaban censurando, eran estos intermediarios. Un ejemplo de ello es la Ley de Comunicación de Ecuador, que establecía responsabilidad sobre los comentarios en los medios de comunicación y en reacción, los medios eliminaron la opción de los comentarios. Hoy, en la mayoría de los países latinoamericanos, los medios de comunicación ya no tienen comentarios, de esa manera se evitan los problemas de spam, de discurso de odio, de vocabulario obsceno o inapropiado, se evitan los temas que son políticamente sensibles. Esos espacios de expresión de opinión se fueron cerrando y la gente se fue a espacios que parecían más libres, y que paradójicamente, eran los espacios ofrecidos por las grandes corporaciones estadounidenses que, al ser tan grandes, los gobiernos nacionales no podían controlar.

 

¿Qué sucedió para que estas corporaciones empezaran a regular o moderar cierto tipo de contenidos?

Después de una serie de incidentes, incluyendo algunos de violencia masiva, incentivados por discursos de odio a través de estas plataformas como lo ocurrido con los Rohingya en Maymar, empieza a haber presiones para moderar los contenidos relacionados con poblaciones discriminadas por razones étnicas o religiosas, a lo que se le agregaron posteriormente las categorías protegidas por género o por orientación sexual. Esos contenidos han estado protegidos y moderados desde hace aproximadamente cinco años.

Sin embargo, todo lo que es explícitamente político, todo lo que tiene que ver con distintas posiciones ideológicas, ha sido mucho más difícil de regular o restringir. Así que la web y los social media se tornaron espacios de amplitud para la disidencia, espacios donde se podían expresar planteamientos menos restringidos que en los medios masivos tradicionales. Por tanto, en contextos autoritarios estos espacios eran una puerta abierta. Mas también en contextos más liberales los social media ofrecieron la posibilidad de que discursos excluidos de los medios masivos se expresaran. Las plataformas fueron mucho más liberales en dejar que estos discursos circularan, cosa que empieza a cambiar a partir de lo ocurrido en las elecciones de Estados Unidos en 2016, y se profundiza mucho más a partir de lo ocurrido en 2018, cuando ante el Congreso de los Estados Unidos presenta evidencia de que había campañas de desinformación y operaciones de desinformación dirigidas a alterar los resultados electorales, dirigidas a cambiar la voluntad popular, a manipular la opinión pública. Este fenómeno no era nuevo, ya había pasado en otros países, como Venezuela o Ucrania, también en Nigeria y en México. Pero cuando pasó en Estados Unidos, en Inglaterra, cuando pasó en España con el referéndum catalán, entonces la Unión Europea y Estados Unidos empezaron a preocuparse. Entonces, las grandes corporaciones también empiezan a preocuparse y comienza el debate global sobre los mecanismos de regulación de contenidos. La interrogante ¿cómo moderamos sin violar la libertad de expresión?

Se estableció un conflicto entre dos bandos irreconciliables: los que están totalmente apegados al derecho a la libertad de expresión y los que alegando la protección de minorías vulnerables decían que estos discursos deberían ser excluidos. Algunos establecían que las plataformas no tenían responsabilidad y que eran los Estados lo que deberían establecer legislaciones; y otros, sobre todo aquellos que venían de países autoritarios decían “No, no por favor, los Estados no. No le den a los Estados la posibilidad de legislar sobre internet”, planteando que fueran las plataformas, las corporaciones las encargadas de autorregularse.

De alguna manera eso fue lo que imperó durante los últimos cuatro años, un proceso de autorregulación donde se empiezan a establecer controles de contenido, donde se empiezan a establecer los mecanismos para suspender cuentas a través de los términos de uso de la plataforma. Pero, las reglas seguían siendo más flexibles para los discursos de los liderazgos políticos; hasta que en este momento empieza ya a hablarse de que es necesario que exista también regulación del discurso político.

 

¿Qué elementos caracterizan la comunicación de los actores políticos en las redes sociales? 

Al menos en Latinoamérica, cuando los políticos empiezan a adoptar la web y a social media en 2012 – 2013 aproximadamente, lo hacen como una extensión de los medios masivos, como una extensión de la televisión o la radio. Comienzan con un discurso muy codificado, muy lleno de slogans, frases hechas, que contrastaba con el discurso que estaba ya en las redes del ciudadano común, de la activista social, de los activistas de base, de otro tipo de sujetos políticos que hablaban con mucha más libertad, que hablaban con mayor profundidad de los temas de debate. Los políticos, sin entender el medio, llegan con tácticas de marketing electoral, y su discurso es el discurso que podías tener en un spot, el discurso que podías tener en una cuña de radio, en una cuña de televisión. No es un discurso dialógico, no trata de persuadir, sino que es una estrategia de repetición. Rápidamente ese discurso se probó inútil, rebotaba en la gente. La gente seguía a los políticos, pero no entraba en conversación con ellos, porque los políticos no sabían conversar. Y siguen sin saber conversar, en su mayoría, pero han entrado a la conversación por la puerta de atrás, a través de las operaciones de información que se hacen con brigadas de activistas. Han aprendido en la última década. Los primeros pasos de este tipo de operaciones los vemos en Venezuela en el año 2010, en Ecuador en el año 2012, en México también en 2012 con la campaña electoral de Enrique Peña Nieto, en Argentina en 2013, cuando los partidos políticos empiezan a darle herramientas a sus activistas de base para que ellos entren en esas conversaciones en las cuales los dirigentes políticos no entraban, y desde esas bases empiecen a interactuar con los opositores, con los adversarios, con los disidentes, con otros actores sociales.

Conversan con un guión, no dialogan desde la búsqueda del consenso, sino desde la imposición de unas líneas discursivas y unas líneas propagandísticas. Estas operaciones se van a hacer sofisticadas de manera muy rápida, se convierten en operaciones de propaganda y desinformación muy bien organizadas, con equipos de trabajo estructurados, donde participan personas que elaboran líneas de discurso, personas que elaboran cajas de mensajes, personas que empaquetan imágenes, audio, gente que distribuye contenidos. Comúnmente la gente empezó a llamar bots, pero en la mayoría de los casos no lo son. Se llama bots cuando se trata de un proceso totalmente automatizado; lo que vemos en la mayoría de los casos es lo llamamos trolls o cuentas marionetas, distintos tipos de cuentas que tienen distintas funciones en la reproducción de los mensajes. Esa es la manera moderna en que se hace propaganda y operaciones de guerra informativa dentro de los espacios de internet, y ocurre en todos los países de América Latina. También lo hacen los partidos políticos de oposición, las organizaciones sociales, los gobiernos más o menos democráticos y también los gobiernos más autoritarios. Evidentemente cada operación está limitada por sus recursos y tienen diferentes límites éticos; pero la manera como se

estructuran las operaciones es similar para todos los actores políticos.

Tienes operaciones de comunicación blanca, muy institucionalizada, muy formalizada, muy sosa y blanda. Tienes además una comunicación gris, un poco más agresiva, más polémica, que va dirigida a crear tendencias de opinión y a atacar al adversario. Y una comunicación negra que va a explotar esos clivajes conflictivos de la sociedad, y es la que puede generar procesos de violencia, procesos en los cuales se ataque a grupos sociales que están siendo objetivos políticos de quienes están tras estas campañas. En el caso de los regímenes autocráticos las operaciones de guerra informativa, la propaganda negra y la propaganda gris son muy centrales en sus estrategias de legitimación.

Cuando se analiza todo el ecosistema político digital se pueden observar distintas estrategias de guerra informativa según los objetivos de las organizaciones políticas que actúan en cada espacio. Predomina el pragmatismo político que utiliza las herramientas que están al alcance para obtener la mayor cantidad de poder.

 

Como experta en comunicación política, comunicación digital y redes sociales, ¿qué opinas del papel de estas empresas privadas como reguladores del debate público, a raíz de los recientes hechos relacionados con la cancelación de la cuenta del ex presidente Donald Trump? ¿Existen precedentes o casos similares que complejicen este debate? 

Voy a comenzar a responder por los precedentes. En el año 2019 tuvimos tres casos de tres mandatarios que fueron sancionados por Twitter por tweets que rompían con las reglas de uso de la plataforma: el caso de Nicolás Maduro, Jair Bolsonaro y Donald Trump. En los tres casos fue por emitir mensajes en los cuales promovían el uso de tratamientos no reconocidos por la Organización Mundial de la Salud para el covid-19. En estos tres casos Twitter alegó una violación de las directrices de la Organización Mundial de la Salud y una regla que se había establecido: no difundir tratamientos no autorizados por la OMS. Existía una regla explícita sobre esto, anunciada de manera clara y sobre un tema específico, lo que hacía muy fácil saber cuándo alguien infringe o no la regla. Los tres casos ocurrieron más o menos en la misma semana, fueron censurados, pero en ninguno de los tres casos era un discurso de naturaleza estrictamente política. Era un discurso sobre un tema de salud pública donde existía una regla clara y un peligro de impacto a la salud pública global. Por tanto, era necesario y conveniente actuar para eliminar ese contenido porque podría tener un efecto nocivo en la salud pública, miles personas podía morir tomando el tratamiento inadecuado.

En el caso de la sanción que lleva la suspensión total de la cuenta de Donald Trump, la situación es compleja y diferente porque no había una regla clara que se estuviese rompiendo. Ante la ausencia de esa regla explícita tenemos exceso en la atribución que se toma la plataforma. En términos de lo que en la jurisprudencia interamericana se llaman la prueba tripartita, se establece que cuando se pretende restringir la libertad de expresión, debe haber una disposición legal previa y una finalidad legítima, debe ser necesaria la restricción y la sanción debe ser proporcional al alcance del daño potencial. En el caso de Donald Trump, es sancionado por un tweet donde dice que no va a asistir a la toma de posesión de Biden. No hay ninguna legislación que haga un delito decir que una persona no va a ir a un acto político, al contrario, toda persona tiene derecho a no asistir a eventos políticos como parte de la libertad de asociación, de la libertad de manifestación y de la libertad de expresión. Es decir, en ese sentido no hay una violación a ninguna legislación, ni existe incumplimiento a ninguna regla de Twitter. En ninguna parte de los términos de uso dice que los usuarios no pueden expresar su decisión de abstenerse de participar en eventos políticos. No obstante, Twitter alega en su declaración sobre el caso que ese tweet podía ser interpretado por los seguidores de Donald Trump como un llamado a oponerse a la toma de posesión de Biden, y que podría ser interpretado por algunos de esos seguidores más extremistas y radicalizados como una carta blanca para hacer demostraciones violentas frente a la toma de posesión. Un llamado a la manifestación violenta sí podría violar las normas, y haría necesaria la sanción. Sin embargo, el tweet no dice eso, no hace un llamado explícito, esa es una interpretación de empleados de Twitter Inc.  En ese caso, una corporación privada se convierte en un intérprete de los mensajes de otras personas, en este caso un dirigente político, un jefe de Estado. Twitter interpretó lo que la opinión pública podía pensar de lo que alguien dijo. Imaginemos la complejidad de tener una corporación que decide qué es lo que tú, yo o la ciudadanía en general puede o no interpretar a partir del discurso de una figura pública. Eso es una extralimitación que puede llegar a niveles de absurdo, pues una persona no puede saber que van a interpretar otros de sus palabras, mucho menos lo que van a interpretar de las palabras de un tercero. Aclaremos que sí es posible interpretar el tweet de Trump de esa manera conociendo los antecedentes de otros discursos de este personaje público, pero en ese texto no es explícito ningún llamado a la violencia. La acción de la corporación es completamente desproporcionada: podría estar causando un daño mayor que el daño potencial que pudiese haber tenido ese discurso.

Posteriormente, Jack Dorsey, el CEO de Twitter, publicó un largo hilo de tweets donde él expresaba sus reservas sobre la decisión que su propia compañía había tomado.  Justamente, en Twitter hicieron algo que las corporaciones se habían cuidado mucho de hacer: se convirtieron en reguladores de los mensajes que pueden o no ser transmitidos a través de su plataforma. Es decir, establecieron una línea editorial y si ellos establecen una línea editorial se están convirtiendo en un medio de comunicación masiva. Las corporaciones de social media tienen 4 años diciendo que ellos no son medios de comunicación y no son responsables de los contenidos. En Twitter, cruzaron una línea. A partir de ahora existe un precedente que dice que ellos son responsables de los contenidos que se emiten por su plataforma. Ellos se atribuyeron la capacidad de interpretar el alcance de esos contenidos y, por lo tanto, tienen responsabilidad de poner límites a aquellos contenidos que puedan ser nocivos. Ellos mismos han creado un problema que los va a obligar a establecer regulaciones. ¿Tienen las corporaciones de social media capacidad para establecer regulaciones en todo el mundo y capacidades para hacer efectivas estas regulaciones en países donde hay conflictos bélicos? ¿Tienen ellos capacidad para interpretar lo que otros van a interpretar en países donde existen conflictos religiosos y conflictos étnicos, conflictos culturales de larga data? Esta situación va a obligar a que haya reglas generales de moderación de contenidos que no sabemos hasta donde pueden llegar. Realmente, Twitter abrió una caja que los perjudica enormemente como corporaciones, pero además pone en peligro la libre difusión de ideas. El caso Trump se va a volver anecdótico comparado con todos los problemas que esta decisión arbitraria, excesiva, desproporcionada va a generar.

 

¿Qué retos representan la comunicación digital y las redes sociales en términos de comunicación política?

Un reto importante es establecer los límites para las operaciones de propaganda informativa, ¿qué es ético y que no es ético?, ¿qué es legal y qué no es legal? Es importante porque estas operaciones no van a desaparecer. Se han ido profesionalizando, y es necesario que empiece a ser reconocida de la misma manera que en algún momento fue reconocida la publicidad, para que se pueda también regular y establecer qué se puede y qué no se puede hacer.

Otro reto tiene que ver con la moderación de contenidos por parte de las plataformas y qué tipo de campaña se pueden hacer a través de estas plataformas. Las autoridades electorales en los distintos países del continente todavía no manejan la complejidad de estos temas.

Siempre hay el problema del balance entre la censura y la libertad, es necesario llegar a esos puntos medios en donde este nuevo espacio pueda estar más normalizado y las reglas del juego sean más claras. Ahí hay otro reto.

 

Iria Puyosa

Investigadora en comunicación política, especializada social media y movimientos en redes. PhD de la Universidad de Michigan (2009). Proyectos de investigación recientes relacionados con propaganda en-línea, desinformación y erosión de la democracia, movimientos en redes y resistencia civil en contextos autoritarios. Ha sido profesora en universidades de Venezuela, Colombia, Ecuador y Estados Unidos.