La transmisión en vivo de la masacre de Christchurch, en Nueva Zelanda, supone un nuevo reto para las compañías de redes sociales en cuanto a impedir la «viralización» de hechos violentos
Hace casi dos semanas el mundo se vio estremecido por una masacre en una mezquita de la ciudad neozelandesa de Christchurch. Lo sucedido allí fue visto por una gran cantidad de personas porque, como nunca antes, el evento fue transmitido en línea a través de Facebook para luego saltar y expandirse, cual virus, a otras redes, todo ello a una velocidad de vértigo.
El hecho se resume así: un terrorista australiano de 28 años de edad amarró una cámara a un casco, inició una transmisión en vivo en Facebook y, como si se tratase de un videojuego de disparos en primera persona, asesinó a quemarropa con armas de fuego a hombres, mujeres y niños.
De acuerdo con The Guardian, el video del suceso muestra a personas que se arrastran por el suelo después de recibir el primer disparo, y se ve a un hombre desarmado en una mezquita que trató de luchar contra el atacante antes de resultar muerto de un disparo.
Algunas víctimas se juntan y apiñan en un rincón. El tirador dispara repetidamente a una masa humana. «La secuencia es tan aterradora que no se entiende cómo alguien puede querer ver las imágenes posteriormente», afirma un reportaje en Gizmodo. Este redactor se niega a atestiguar tal barbarie, que además de ser transmitida y replicada en varias redes, tuvo hasta un correlato narrado en otro abominable foro en Reddit.
No es la primera vez que internet es el vehículo para hechos violentos en vivo, pero quizá este tuvo un significado extra: fue pensado para que fuera viral, y lo consiguió con una fuerza tremenda.
El atroz hecho cometido por Brenton Harrison Tarrant, un supremacista blanco nacido en Australia, que se declaró fan de Donald Trump porque representa un «renacer de su raza», fue apenas visto por 200 personas durante su transmisión en vivo. Relata la publicación española Xataka que luego de 30 minutos, uno de los observadores se animó a reportar el video como inapropiado a Facebook.
Sin embargo, parece que los responsables de revisar los reportes no fueron lo suficientemente rápidos, y quienes moderan contenidos en Facebook no tuvieron conciencia de la magnitud del hecho hasta que la policía de Nueva Zelanda los alertó.
Al menos eso se desprende de las declaraciones de Mia Garlick, ejecutiva de Facebook para Australia y Nueva Zelanda, quien dijo a The Guardian ese fatídico viernes: «La policía de Nueva Zelanda nos alertó sobre un video en Facebook poco después de que comenzara la transmisión en vivo y eliminamos rápidamente las cuentas de Facebook e Instagram del tirador y el propio video. También estamos eliminando cualquier elogio o apoyo al crimen o al tirador o tiradores tan pronto como hemos sido conscientes. Continuaremos trabajando directamente con la policía de Nueva Zelanda a medida que su respuesta e investigación continúen».
Que un video como este haya durado tanto tiempo sin ser suspendido significa que, si bien las más grandes redes sociales cuentan hoy con tecnologías de avanzada y equipos de moderadores humanos, ello no es suficiente para responder con prontitud ante hechos en vivo que, como el de Nueva Zelanda, podría haber sido visto por niñas o niños con más de 13 años, edad legal para darse de alta en esta red social.
Los pequeños habrían tenido acceso, incluso, al manifiesto publicado ese mismo día por Brenton Harrison Tarrant, un atroz documento de más de 80 páginas cargado de mensajes racistas, xenófobos, antisemitas y con referencias a la cultura pop moderna. De hecho, antes de comenzar su mortal tiroteo, el joven australiano —quien no poseía antecedentes penales—, dijo algo todavía más perturbador: «Suscríbanse a PewDiePie». La referencia es una frase muy común que remite al youtuber sueco Felix Arvid Ulf Kjellberg, quien tiene la mayor cantidad de suscriptores a esa red social —hasta el domingo más de 91 millones—, y se ha visto envuelto en polémicas debido a chistes antisemitas o misóginos. PewDiePie reaccionó a ello con una condena.
Lo cierto es que en el tiempo que duró la transmisión alguien hizo una copia y la subió a YouTube. Desde ese momento la pandemia del odio se extendió como la pólvora.
Facebook reportó que tuvo que retirar al menos 1,5 millones de copias del video del asesino de Christchurch, la mayoría de ellas durante el proceso de carga. Así de viral se convirtió este suceso.
Entretanto, Neal Mohan, responsable de Producto en YouTube, explicó a The Washington Post que el mayor portal de videos del mundo tuvo que trabajar de forma incesante para impedir la difusión del crimen. En este caso, los moderadores humanos se vieron desbordados por la cantidad de subidas simultáneas y en YouTube se tomaron dos decisiones: suspender temporalmente la opción de buscar videos recientemente subidos y poner en manos de una Inteligencia Artificial (IA) la detección de nuevas copias del mismo.
Desde 2017 Google emplea técnicas de machine learning y reconocimiento de imágenes para mejorar la detección de materiales inapropiados en YouTube. En este caso en concreto, la IA detectó la mayoría de las copias, aunque las autoridades de la red social no brindaron una cifra en concreto, solo se refirieron a «decenas de miles» de ellas.
Con lo que no contaba la IA de YouTube era con el ingenio de los usuarios. Muchos de ellos, decididos a burlarla, subieron copias del material luego de introducirles filtros, cortarlas en pedazos más pequeños, ponerles un marco o invertir la imagen por su eje vertical.
«Esta tragedia fue diseñada con el propósito de volverse viral. Hemos mejorado, pero eso no significa que no tengamos mucho trabajo por delante», reconoció luego Mohan a The Washington Post.
Ese trabajo pendiente se traduce en el riesgo que entrañan las transmisiones en directo. Si bien un algoritmo de IA puede ser eficiente, siempre necesitará de un tiempo para reconocer lo que se emita en vivo, e incluso un poco más para analizar las copias manipuladas posteriormente.
Con los tiempos que corren no parece que YouTube vaya a poder prescindir de los moderadores humanos en este campo por ahora, mucho menos Facebook.