En la última década redes sociales como Facebook, Instagram y Twitter tomaron un rol fundamental en nuestras vidas, formando parte de nuestra cotidianeidad. Estas plataformas se transformaron en una gran herramienta de comunicación, debido principalmente a la velocidad de difusión de sus contenidos y a la libertad que tienen los usuarios en sus publicaciones.

En el ámbito político, Facebook alcanzó su clímax con la llamada primavera árabe, que comenzó en 2011 con la primera manifestación contra el régimen de Mubarak (Egipto) convocada a través de la red social. De ahí en adelante, en países como Venezuela, donde la libertad de prensa está restringida, las redes sociales pasaron a ser el ámbito de discusión y de denuncias contra las limitaciones de libertades. Este fenómeno permitió conocer la realidad de muchos países cuyos regímenes están manchados por la corrupción, la censura política, los ataques a la libertad de expresión, la violación de derechos humanos, entre otras cosas.

Sin embargo, cuando hablamos de redes sociales no todos son beneficios. Así como los mensajes con contenidos positivos se viralizan, los de odio también lo hacen. Facebook hace tiempo es blanco de críticas por no frenar la distribución de este tipo de mensajes y la organización de grupos violentos. La compañía se escuda tras la libertad de expresión y no juzgar el contenido que publican sus usuarios, su principal atractivo.

Facebook tiene sus propios parámetros y definiciones respecto a la clase de contenido que no tolera. Según figura en sus normas, todo aquello que entra en las categorías de ataque terrorista, incitación al odio, asesinato en masa o en serie, trata de personas e incitación a la violencia o a la actividad delictiva, no está permitido. A pesar de estas medidas, la compañía no logra evitar en su totalidad la difusión de este tipo de mensajes. Esto se debe al elevado número de usuarios (2.271 millones) y a la cantidad de contenido que ellos generan. Siendo estas cifras tan elevadas, solo se pueden revisar las publicaciones que fueron denunciadas. El gran defecto de este sistema es que, a pesar de ser denunciadas y revisadas, las publicaciones siguen en línea hasta definir si es contenido no autorizado por Facebook. Esto permite que los usuarios pueden ver la publicación y compartirla. Cuando la compañía toma la medida de eliminarla, el daño ya está hecho.

El último acontecimiento que generó controversias fue el doble ataque terrorista contra dos mezquitas de Christchurch (Nueva Zelanda). El autor de los hechos había publicado en Facebook un manifiesto donde explicaba sus motivos. Además, el ataque fue transmitido en vivo a través de la red social y fue visto 4.000 veces en la media hora que tardo en ser denunciado. El sistema que utiliza la compañía para rastrear este tipo de discursos de odio fue incapaz de detectar el plan.

Los dos grandes interrogantes que surgen respecto a este tema son: quién es el responsable, el usuario que genera el contenido o la plataforma; y quién debe regular el contenido de las redes sociales, el estado o la compañía. Son dos aspectos que deben ser tratados en conjunto.

En cuanto a la responsabilidad, nos encontramos con un gran vacío legal. Por un lado, al ser plataformas no rigen las mismas normas que los medios de comunicación tradicionales, quienes son responsables de los contenidos que publican. En el caso de Facebook, Instagram, Twitter e incluso YouTube, el material es producido por los usuarios, ahí yace su libertad de responsabilidad. Por otro lado, utilizan algoritmos que las hacen tendenciosas, al no distinguir el interés del usuario, los que les da cierta responsabilidad. Una persona que vio el video del ataque terrorista a la mezquita de Christchurch probablemente vea muchos más del estilo al ser redirigido automáticamente por la plataforma. Entonces ¿si estas redes sociales no existiesen, las consecuencias serían las mismas? ¿se cometerían los mismos delitos?

Durante el año 2017, una misión de la ONU estuvo encargada de realizar un informe sobre la violación de derechos humanos en Myanmar. El papel de Facebook en el aumento del odio online en un país donde se realizó un genocidio contra parte de su población musulmana generó grandes controversias. Está claro que, más allá de la existencia o no de Facebook, la violación de los derechos humanos en este país hubiese ocurrido. Lo que se discute es el grado de responsabilidad que tiene la red social, ya que se cree aumento la crueldad y la aceptación por parte de la población: “La Misión no tiene ninguna duda de que la prevalencia del discurso de odio en Myanmar contribuyó al aumento de tensión y a un clima en que individuos y grupos pueden ser más receptivos a incitamiento y llamadas a la violencia”, dice Naciones Unidas.

Respecto a la regulación del contenido, hasta el momento son las propias plataformas las que establecen qué es aceptable y qué no. No solo tienen la libertad de definir qué términos se pueden emplear, sino que, también determinan qué incluye cada concepto enlistado en sus normas. Esta libertad esta fuertemente cuestionada, hay una tendencia a creer que internet y el uso de las redes sociales deben ser regulados por los estados nacionales. Damian Collins, un abogado ingles quien promueve esto, declaró que la “desinformación es dañina para la democracia y para la sociedad”.

La Unión Europea es la principal promotora de la campaña anti-odio y de la regulación del contenido que se publica en redes sociales. En febrero de este año la Comisaria de Justicia, Vera Jourová, dijo que “vivimos en un momento crucial para el sector de las nuevas tecnologías. O nos demuestran que pueden hacer cumplir las reglas que existen offline, o deberán hacer frente a iniciativas reglamentarias”.

Las primeras medidas que se tomaron en el camino hacia la regulación tuvieron lugar en diciembre de 2016. En ese momento la Comisión Europea junto a Facebook, Microsoft, Twitter y YouTube firmaron un código de conducta, el cual obliga a estas compañías a bloquear y borrar el contenido xenófobo, racista y sexistas. También les exige actuar dentro de las 24 horas de publicado. El objetivo es, contrarrestar el discurso de odio en internet, muy presente en los últimos años, desde que comenzó la crisis de refugiados y ataques terroristas en Europa.

Esta disposición mostró muy buenos resultados. A más de dos años del acuerdo, según el cuarto informe de la Comisión Europea, el 72% de las publicaciones de este tipo fueron eliminadas. Esta cifra comenzó siendo del 28% en diciembre de 2016, aumentando a 59% en mayo de 2017 y alcanzando un 70% en 2018. Además, Instagram, Google+, Snapchat y Dailymotion se unieron a la propuesta. El balance es positivo no solo por la cantidad de mensajes que se eliminan (3 de cada 4 post denunciados son eliminados), sino que también mejoro la velocidad de reacción. El 83% de las notificaciones son resueltas en menos de 24hs.

Si bien las cifras muestran grandes avances, el tema se volvió delicado con el auge de la extrema derecha en Europa. Los movimientos supremacistas y separatistas blancos están en ascenso. Un claro ejemplo de este fenómeno es el ya mencionado ataque de Christchurch. Dos semanas después del acontecimiento, Facebook actualizó sus normas incluyendo estos términos en la lista de contenido no permitido en la plataforma, a través de un comunicado titulado “plantarse ante el odio”.

Siguiendo con esta línea, la compañía liderada por Mark Zuckerberg eliminó cuatro grupos y los perfiles de Faith Goldy y Kevin Goudreau, dos reconocidas figuras de la extrema derecha canadiense. Los grupos son el Frente Nacionalista Canadiense, los Lobos de Odín, la Fuerza Aria de Ataque y los Soldados de Odín. Esta decisión fue celebrada por el Primer Ministro canadiense, Justin Trudeau, quien escribió en Twitter “el odio no se tolerará en Canadá y todos tenemos un papel que desempeñar para mantener a nuestras comunidades seguras, incluso online. La decisión de Facebook de suprimir las cuentas que propagan el odio y el nacionalismo blanco es un paso en la buena dirección”.

La Unión Europea todavía no presentó un proyecto para una legislación comunitaria del asunto, pero países como Gran Bretaña y Australia ya tomaron cartas en el asunto. En el caso de Australia, la nueva ley determina que las compañías son las responsables de la difusión de mensajes de odio en sus plataformas, y deberán pagar una multa por ello, incluso sus ejecutivos podrían ir a prisión.

En el caso de Gran Bretaña, no hay una ley aprobada, pero se presentó en el parlamento una propuesta preliminar. La misma establece que el gobierno británico podría multar a las compañías y responsabilizar personalmente a los ejecutivos de estas por publicar videos violentos, información falsa, explotación infantil, entre otras, en sus plataformas. Hasta el momento las mismas plataformas eran encargadas de establecer las reglas y las regulaciones de su contenido, lo que plantea Gran Bretaña es que sigan siendo los empleados de las compañías los que lleven a cabo las medias, pero siguiendo un reglamento dictado por un estado regulador. A favor de las compañías, ya no son ellas las acusadas de violar la libertad de expresión. En este sentido, Mark Zuckerberg declaró que no se siente cómodo con Facebook tomando decisiones sobre contenidos y asuntos de esta índole. Lo que busca es que sean los gobiernos a través de sus parlamentos que establezcan las reglas y no él. Teniendo en cuenta el pedido de Zuckerberg, la pregunta a hacerse es: qué es mejor, ¿que las normas respecto a la libertad de expresión las pongan los estados o las compañías privadas? De alguna forma hay que regularlas. Evitar la difusión de publicaciones con mensajes de odio es una tarea fundamental, pero deben ser cautelosos y no convertirse en un instrumento de censura o vulnerar la libertad de expresión. El desafío es encontrar el equilibrio.

Debe hacerse una nueva regulación específicamente para redes sociales. No se puede aplicar la misma que para diarios y revistas, no solo por ser totalmente diferentes, pero porque aplicar lo mismo sería imposible a niveles prácticos. Los contenidos que general las redes sociales son masivos, es inviable analizarlos todos antes de su publicación.

Se espera que las propuestas de Australia y Gran Bretaña sirvan como ejemplo para los demás países y que, poco a poco, el uso de las redes sociales se regule a través de los estados. El problema que surge es, teniendo en cuenta las culturas tan distintas y las diferencias idiomáticas, ¿se puede elaborar una norma que funcione como regla general para todos? En un mundo globalizado y con grandes avances tecnológicos es cada vez más difícil marcar el limite entre los asuntos que conciernen a los estados nacionales y los que conciernen a la comunidad internacional.

Lo que podemos ver es que estamos frente a un nuevo paradigma. Las redes sociales comenzaron siendo un medio para expresarse libremente, sin control y sin censura. Fueron evolucionando hasta convertirse en una gran herramienta para la difusión de contenidos no solo para los individuos, sino también para las empresas y el ámbito político. Rápidamente los contenidos comenzaron a tener un gran impacto en la realidad, no solo por la información que circula, sobre todo por la velocidad de difusión. Pero, así como tuvo un efecto positivo dando lugar minorías y fomentando la libertad, también tuvo su efecto negativo. Los mensajes de odio son fáciles de encontrar en las redes sociales y cada vez son más numerosos.

El pedido que se les hace a estas plataformas es, por un lado, combatir los mensajes de odio que se publican, por el otro, compartir información de los usuarios que producen este tipo de mensajes para evitar nuevos episodios de violencia. Al ser una compañía privada, los datos que recolecta también lo son y los usuarios confían en ello, se sienten libres de publicar todo tipo de contenido sin sufrir las consecuencias. Facebook sabe quiénes reaccionan a qué contenido, quiénes lo comparten y quiénes lo publican.  Muchos de los ataques terroristas a distintos puntos de Europa se gestaron a través de Facebook y Twitter, se cree que si las compañías hubiesen compartido esa información muchos de ellos se podrían haber evitado.

Frente a esto surge el debate de qué hacer, ¿el estado debe intervenir?, estas plataformas ¿deberían compartir su información con los estados y trabajar en conjunto?

Las redes sociales son el único ámbito de discusión donde no hay censura. Al hacerse un usuario, se puede ver que contenido está permitido y cual no. Se juega con las reglas de la compañía, todo el mundo lo sabe y todo el mundo está de acuerdo. Si interviene el Estado esto cambia y el principal temor es la censura política y a la libertad de expresión. En contraposición, la libertad de uno termina cuando empieza la del otro, los mensajes de odio vienen con grandes consecuencias como ataques a grupos por su religión, etnia o raza. Por lo tanto, hay que controlar los contenidos que se publican en las plataformas. Al ser una cuestión tan delicada, es razonable que la responsabilidad de hacerlo recaiga sobre los estados y no sobre los ejecutivos de las compañías.