Lucha contra los mensajes de odio en la Red

Virginia Rometty, de IBM, y Jean-Paul Agon, de L'Oreal. :: afp/
Virginia Rometty, de IBM, y Jean-Paul Agon, de L'Oreal. :: afp

Los gigantes de Internet y 26 países se comprometen en París a vetar la difusión de contenidos de violencia extremista

PAULA ROSAS PARÍS.

El pasado 15 de marzo, un supremacista blanco mataba a 51 personas en dos mezquitas de Nueva Zelanda y lo difundía en directo por Internet. El horrendo crimen exponía, en toda su crueldad, la incapacidad de reguladores y plataformas para evitar la propagación de los mensajes de odio en las redes sociales. Dos meses después, 26 países y los gigantes de Internet se han comprometido con el 'llamamiento de Christchurch' a que algo así no pueda volver a producirse. ¿Cómo? Mejorando, entre otras cosas, los sistemas de detección para adelantarse a los terroristas y a aquellos que difunden sus mensajes en las redes.

El documento, de cuatro páginas, ha sido impulsado por el presidente francés, Emmanuel Macron, y la primera ministra neozelandesa, Jacinda Ardern, y detalla los compromisos de gobiernos y plataformas digitales para luchar contra el terrorismo y el extremismo violento en Internet. Se trata de algo parecido a un código de conducta voluntario, que ayer firmaron en el palacio del Elíseo jefes de Estado y de gobierno como el rey Abdalá de Jordania; el primer ministro canadiense, Justin Trudeau, o la británica Theresa May, además de los directivos de tecnológicas como Google, Microsoft o Facebook.

La red social fundada por Mark Zuckerberg fue la primera en responder a la llamada, y ayer prometió limitar su herramienta Facebook Live, que permite la difusión en directo de imágenes, para aquellos que hayan sido sancionados por la plataforma por incumplir sus normas más sensibles.

El llamamiento, dijo Macron, asocia «a todos los actores de Internet» y propone «acciones concretas para acompañarlo». A los gobiernos les pide reforzar la legislación que ya existe en sus países o crear nuevas leyes para prohibir los contenidos extremistas violentos, y a las plataformas evitar, de manera transparente, la descarga de contenidos de odio y su difusión en las redes, así como la retirada inmediata y permanente de las que puedan llegar a publicarse. Cada empresa deberá decidir, no obstante, qué considera contenido extremista violento y, por tanto, inaceptable, ya que el documento no incluye una definición.

Análisis eficaces

Las plataformas firmantes se han comprometido a compartir cifras sobre el número de mensajes de odio que eliminan de sus páginas, algo que la mayor parte de ellas ya han empezado a hacer. Twitter, por ejemplo, anunció recientemente haber cerrado 166.513 cuentas por «terrorismo» en los últimos 6 meses de 2018, y Facebook ha asegurado que sus herramientas consiguen detectar el 99% de los contenidos terroristas, y que la mitad de ellos no duran más de 2 minutos en su web. El llamamiento pide, además, la mejora y generalización de bases de contenidos prohibidos, que impulsó en 2016 la Comisión Europea -ayer en la firma del documento estaba también su presidente, Jean Claude Juncker-, y que cuenta ya con 100.000 contenidos que son detectados de forma automática como propaganda terrorista.

El atentado de Christchurch, cuyo macabro vídeo se hizo viral en cuestión de horas, puso a prueba la capacidad de gigantes como Facebook para detectar con rapidez el contenido que debía ser eliminado, un auténtico desafío técnico debido a que, entre otras cosas, los usuarios habían realizado diferentes montajes con las imágenes. La plataforma anunció ayer que va a invertir 7,5 millones de dólares (6,7 millones de euros) para mejorar el análisis de imágenes fijas y vídeos.

«Siempre veré las redes sociales como algo positivo -dijo Jacinda Ardern-. Sin embargo, por desgracia, creemos que también pueden ser utilizadas para propagar el odio. Nuestro desafío es encontrar cómo garantizar un acceso libre y seguro a esas plataformas digitales a la vez que impedimos en el futuro el mal que hemos visto».