La violencia en las redes sociales

El caso Nueva Zelanda

El viernes 15 de marzo un hombre australiano de 28 años llenó su automóvil de armas, condujo hasta dos mezquitas en Christchurch, Nueva Zelanda, y empezó a disparar contra gente indefensa que estaba orando. Cincuenta personas murieron. Pero lo más insólito del brutal hecho fue que el asesino transmitió en vivo la masacre durante 17 minutos a través de Facebook Live, gracias a una cámara que instaló en su casco. Así, esta atrocidad fue vista en directo por unas 200 personas y 4.000 más lo alcanzaron a ver luego ‘en diferido’, antes de que Facebook suprimiera el video.

El hecho ha puesto una vez más a la redes sociales en la picota pública. Incluso, cuando la primera ministra de Nueva Zelanda, Jacinda Ardern, habló frente a cámaras por lo ocurrido le exigió públicamente respuestas a Facebook sobre la transmisión de la matanza. “Hicimos lo mejor que pudimos para remover, o intentar remover, el video que circuló luego de este ataque terrorista. Pero en última instancia es responsabilidad de las plataformas facilitar la remoción.”, señaló Ardern.

¿Conocías algo de Nueva Zelanda antes de estos hechos? ¿Te has preocupado por averiguar sobre el país y sus condiciones sociales actuales? ¿Colombia podría ser blanco de hechos como estos?

La respuesta de Facebook

Mia Garlick, de la oficina de la red social de Facebook de Nueva Zelanda, aseguró: “Trabajaremos sin descanso para remover el contenido violatorio”. Al día siguiente, la red social publicó un comunicado en el que afirmaba que en las primeras 24 horas removieron un millón y medio de copias y versiones del video del ataque, a nivel global.

El vicepresidente de Producto de Facebook, Guy Rosen, publicó en el blog oficial de la compañía que los sistemas de detección automática no se activaron porque la inteligencia artificial no tenía suficiente entrenamiento para reconocer este tipo de videos. “Lo que desafió nuestro enfoque fue la proliferación de muchas variantes diferentes del video, impulsadas por las formas, amplias y diversas, en que la gente lo compartió”, explicó.

Lo que desafió nuestro enfoque fue la proliferación de muchas variantes diferentes del video, impulsadas por las formas, amplias y diversas, en que la gente lo compartió. Si bien las principales plataformas de internet se han comprometido a adoptar medidas enérgicas para frenar la difusión de este tipo de contenido con sistemas automatizados y con monitoreo hecho por humanos, expertos coinciden en que es claro que estos controles no están funcionando.

Adicional al problema de privacidad generado por Cambridge Analityca, ahora esto, Mark Zuckerberg su cabeza visible está en la mira de todo el mundo, ¿Se acerca el fin de Facebook?

¿Qué opinan los externos?

Lucinda Creighton, exministra de gobierno irlandesa y asesora de la ONG Counter Extremism Project, que hace campaña para retirar contenido violento de internet, señaló que “no hay ninguna excusa para que el contenido de esa transmisión en vivo esté circulando”.

Mientras que Carlos Charry, Ph. D en sociología y profesor de la Universidad del Rosario, anota que es sorprendente que haya más control sobre desnudos que sobre las transmisiones de contenidos explícitamente violentos, y explica que “algo se ha avanzado, pero el caso de Nueva Zelanda muestra que aún estamos lejos de lo que se espera”.​

¿Entonces, es cuestión de solo reglamentación? ¿Y en donde queda el individuo y sus valores, la educación?

Otras redes sociales involucradas

YouTube también se vio envuelta en el caso del video de Nueva Zelanda y la excusa que esta red presentó es que el volumen de copias del video del ataque subidas a su red por usuarios a partir de la transmisión original, que fue eliminada de inmediato, “no tiene precedentes tanto por su escala como por su rapidez”. Añadiendo que en las horas posteriores a la masacre, la velocidad a la que esos videos fueron montados en YouTube llegó a alcanzar el ritmo de una nueva subida cada segundo.

Las explicaciones no parecen ser suficientes, pues esta no es la primera vez que ocurre un hecho como este. Si nos remontamos solo al surgimiento de la transmisión en vivo a través de redes sociales, ya son cientos o incluso miles los casos, las cifras son inciertas, pues estas plataformas se han negado en repetidas ocasiones a publicar cuántos casos han registrado. Pero basta con señalar que, según un informe que reveló Facebook en mayo del año pasado, en el primer trimestre del 2018 se eliminaron cerca de 3,4 millones de imágenes violentas, casi el triple que en el trimestre anterior.

A pesar de estas acciones, este hecho atizó un debate de grueso calado en torno a la responsabilidad de redes como Facebook, YouTube, Google y Twitter, entre otras, sobre la difusión en sus plataformas de contenido violento: tiroteos, violaciones, asesinatos, maltrato infantil o contra animales, pedofilia, tortura, suicidios e intentos de suicidio, por mencionar algunos ejemplos.

No es solo problema de Facebook y Youtube, pero nadie se compromete a publicar las cifras.

Otras publicaciones

Las publicaciones que abordan y denuncian esta problemática ya vienen de tiempo atrás. ‘BuzzFeed News’ publicó a mediados de 2017 un artículo titulado ‘La violencia en Facebook Live es peor de lo que pensabas’ en el que se denunció que desde el debut de este sistema, en diciembre de 2015, hasta ese momento, menos de dos años, se emitieron en vivo y en directo no menos de 45 casos de violencia en Estados Unidos que incluían violaciones, asesinatos, tiroteos, maltrato infantil, tortura, suicidios e intentos de suicidio. Y es evidente que en esta cifra hay un subregistro.

A comienzos de este año se filtró en el canal YouTube Kids, que se supone tiene unos filtros aún más estrictos para que solo se pueda ver contenido dirigido a menores de edad, el video de un hombre que les explicaba a los niños cómo debían suicidarse. Y la misma plataforma tuvo que enfrentar las denuncias que hizo el bloguero Matt Watson, quien descubrió en febrero de este año una falla en el algoritmo de recomendaciones de videos que ponía en contacto a pedófilos que actúan impunemente en esa red. Watson explicó en un comentado video como solamente le hicieron falta dos clics para acceder a contenido publicado por pedófilos y cómo la plataforma recomienda videos de este tipo de manera automática, destacó la BBC de Londres.

El caso tuvo repercusiones financieras inmediatas para YouTube. Cuando se hizo pública esta información, Disney, Nestle, Dr. Oetker o Epic Games, según ‘Bloomberg’, retiraron o paralizaron sus inversiones publicitarias en Google (YouTube), pues ninguna compañía quiere que sus videos publicitarios aparezcan junto a contenidos pedófilos o en plataformas que no protegen a los niños de estas amenazas.

¿Están nuestros niños seguros en Internet? ¿Es totalmente responsabilidad de los padres su acompañamiento? Existen herramientas para bloquear los contenidos violentos, ¿Los conocemos y usamos?

¿El problema es el morbo?

En el caso particular de la masacre de Nueva Zelanda también quedó en evidencia que, aunque las plataformas se apresuraron a eliminar la grabación, la inteligencia artificial no superó la velocidad, como ellas mismas reconocieron, de los usuarios, la astucia humana y “el impulso morboso de observación”, según explica Charlie Warzel en su columna de ‘The New York Times’.

En cuestión de segundos, el video fue descargado y transmitido en plataformas adicionales, se crearon formatos que no fueran identificables para evitar ser eliminados y hasta se hicieron capturas de pantalla de las escenas más sangrientas. Y una de las preocupaciones de los expertos es que estas ‘exaltaciones’ en línea de episodios tan condenables puedan incentivar a otras personas a imitarlos.

Mario Morales, analista y profesor asociado de la Universidad Javeriana, adiciona un punto más, pues dice que responsabilizar únicamente a las redes sociales “es buscar el ahogado río arriba” y asegura: “Los responsables de contenidos nocivos, violentos o lesivos son los autores del mismo. Hay que ventilar la responsabilidad de los autores intelectuales (y como actuar sobre ellos), que son los verdaderos instigadores o componentes tóxicos de esta historia”.

Es como la droga, si hay demanda, hay oferta, si alguien publica el video es porque hay quienes lo ven, alguien se motiva a publicar porque tiene seguidores … el eterno dilema ..

Y con todos los avances en algoritmos e IA ¿Hay solución?

Desde luego, Facebook y las demás redes no son los únicos responsables de la difusión de este tipo de contenido. Pero al ser la plataforma de difusión de estos contenidos es innegable que tienen una responsabilidad muy alta, como medidas secundarias se vale solicitarles a las plataformas que eleven los filtros, que hagan seguimiento y que contribuyan a que estos contenidos inapropiados no se distribuyan y lleguen de manera masiva.

Otras voces opinan que el propio ‘mercado’ se va a encargar de solucionar el tema, pues en la medida que la falta de controles reales les siga costando anunciantes a las redes (que finalmente son un negocio), como en el citado caso de Youtube, la plata y los esfuerzos que esas compañías invertirán en ‘cuidarse’, serán cada vez mayores y más efectivos. Pero el hecho es que el tema está sobre la mesa, es de un alcance descomunal y por ahora sigue sin una solución clara a la vista.

Esta vez, como tradicionalmente lo hago, no traigo un tema «informativo», sino uno «reflexivo». ¿En donde reside el problema de la violencia en las redes sociales? ¿Es el que publica los contenidos? ¿Es quien los ve? ¿Son las plataformas? Dame tu punto de vista al respecto, y lo más importante, que sugieres hacer para que esto no ocurra.