El tiroteo masivo en Nueva Zelanda incita a la moderación en las redes sociales
Una serie de terribles ataques terroristas en Christchurch, Nueva Zelanda, ha horrorizado al mundo de hoy, en gran parte gracias al hecho de que los terroristas hicieron a la medida la atrocidad de volverse viral en múltiples plataformas de redes sociales. Después de la tragedia, la gran tecnología necesita examinar si está haciendo lo suficiente para limitar la propagación del odio en línea.
Los terroristas atacan mezquitas en una serie de tiroteos que dejaron 49 muertos y muchos más heridos, varias personas ya han sido arrestadas y un hombre acusado de asesinato. Un pistolero que se identificó como australiano y abrazó opiniones racistas antiinmigrantes transmitió la masacre de la mezquita de Al Noor a Facebook, y un vídeo de los tiroteos también se publicó en YouTube, Twitter e Instagram.
Los vídeos, junto con un manifiesto que apareció en el tablero de mensajes en línea 8chan (en sí mismo un lugar de reunión infame para los extremistas de derecha) mostraban tanto un profundo conocimiento de la cultura de Internet de la extrema derecha online como un conocimiento de las redes sociales calculado para obtener tanta atención online como fuera posible.
Un tiroteo para las redes sociales
El vídeo de los tiradores, por ejemplo, le recuerda a los observadores:"Recuerden, muchachos, suscríbanse a PewDiePie", refiriéndose a la megaestrella YouTuber Felix Kjellberg, quien ha sido caldeado por promover el antisemitismo. Kjellberg ha impulsado a sus 89 millones de seguidores a evangelizar su canal para seguir siendo el más popular en YouTube y, desde que fue mencionado por el asesino, se ha visto obligado a condenarlo públicamente, difundiendo así la noticia a sus enormes seguidores, muchos de los cuales son niños.
El manifiesto adjunto a los tiroteos también da nombre a más fenómenos culturales diseñados para atraer a la juventud conocedora de Internet. Incluso Fortnite, recibe un grito. Pero lo que es más importante, está lleno de puntos de discusión racistas de extrema derecha, que hacen referencia al "genocidio blanco" y a las "14 palabras", un mantra neonazi. Cualquiera con una familiaridad pasajera con las comunidades en línea o los expertos políticos puede reconocer estos puntos de discusión: palabras de moda que son muy comunes en los videos"alt-right" que es muy probable que aparezcan en sus recomendaciones de YouTube, y en las mismas comunidades de odio que plagan Twitter, los subreddits tóxicos y el infame canal de 8chan /pol.
El título del manifiesto `El Gran Reemplazo', hacía referencia a un vídeo de YouTube de la experta derechista Lauren Southern. Tras el tiroteo, el vídeo de Southern fue retirado durante unas horas antes de volver a hacerse público.
hey @Lauren_Southern where'd your video go? the one about the great replacement? i have a copy saved if you need it pic.twitter.com/exAFhcPX17
— Shaun (@shaun_jen) March 15, 2019
Una gran tecnología requiere una gran responsabilidad
Tanto el vídeo como el manifiesto se han difundido a lo largo y ancho de la red, y a pesar de los esfuerzos de las plataformas online para suprimirlos, siguen apareciendo una y otra vez. YouTube y Twitter albergan múltiples copias, los sitios para compartir archivos con poca o ninguna supervisión albergan el manifiesto.
No hay manera de destacar esto sin antes discutir la atrocidad en sí, pero este fenómeno es ilustrativo de una crítica que ha sido apalancada durante mucho tiempo en las grandes plataformas tecnológicas. La moderación es lamentablemente inadecuada hasta el punto de ser dañina. Un vídeo subido a Facebook o Twitter se reproduce automáticamente por defecto, algo que a los anunciantes les encanta, pero que ha llevado a la gente a exponerse involuntariamente a este horror, y ha permitido a los terroristas alcanzar su objetivo de atención. Una vez que la información está disponible, no hay controles para evitar que la gente la suba una y otra vez. Y los algoritmos diseñados para ayudar a que algo se convierta en algo viral y llegue al mayor número de personas posible (de nuevo, en beneficio de los anunciantes) pueden ser explotados y secuestrados con fines de odio en línea.
YouTube ha tenido un problema con el alojamiento y la amplificación de contenido racista durante años, pero nunca ha tenido una buena política de moderación, y sus algoritmos han sido objeto de críticas por facilitar la explotación infantil.
Don't lie about your lackluster efforts. We know you're not actually doing shit; we can see it. You need to work a hell of a lot harder and smarter. https://t.co/Ufl1pJABwC
— Sarah Kendzior (@sarahkendzior) March 15, 2019
Facebook, por otro lado, paga poco, informa poco y trabaja demasiado a sus moderadores hasta el punto de ser completamente ineficaz. En Twitter, los ataques fueron elogiados por muchas cuentas de supremacistas blancos, que persisten en Twitter a pesar de los múltiples llamamientos para que el gigante de los medios sociales prohíba a los neonazis de la plataforma.
Extremism researchers and journalists (including me) warned the company in emails, on the phone, and to employees' faces after the last terror attack that the next one would show signs of YouTube radicalization again, but the outcome would be worse. I was literally scoffed at. https://t.co/z0OPqfJJw6
— Ben Collins (@oneunderscore__) March 15, 2019
Las plataformas de medios sociales son máquinas de ingeniería social finamente afinadas diseñadas para centrar la atención de las masas tanto como sea posible con fines de lucro, pero cada vez se nos muestra más cómo estos sistemas pueden ser explotados para el abuso del odio y el asesinato. Las principales plataformas -Facebook, Twitter y Google- tienen tal monopolio sobre la difusión de información en nuestro mundo conectado que no pueden lavarse las manos fácilmente. No se trata sólo de controlar tipos de multimedia como el vídeo de hoy: hay que poner fin a los grupos de odio de los que proceden y a los que llaman estos terroristas.