Facebook detecta menos publicaciones sobre suicidio y acoso infantil por culpa de la pandemia
La Covid-19 no solo ha arrasado con la normalidad, también ha provocado que las empresas de redes sociales redirijan sus esfuerzos a limitar la desinformación que se mueve en torno a la pandemia. Sin embargo, la llegada del virus y el teletrabajo, ha provocado que -en algunos casos- otro tipo de contenido dañino pueda prevalecer. Facebook, la plataforma social por antonomasia, ha reconocido que el coronavirus ha limitado la actividad de sus revisores y ha provocado que se detecten menos publicaciones relacionadas con el suicidio, las autolesiones y la explotación infantil.
Así lo ha expresado la compañía propiedad de Mark Zuckerberg a través de un comunicado en el que se valora la actividad dentro de la red social entre abril y junio de 2020. Facebook sostiene que el hecho de que sus revisores estén trabajando desde casa desde marzo hizo que la plataforma dependiese mucho de la tecnología para llevar a cabo la labor.
«Dependemos mucho de personas que revisan el contenido relacionado con el suicidio, autolesiones y explotación infantil, mientras ayudan a mejorar la tecnología que encuentra y elimina proactivamente el contenido idéntico o casi idéntico que viola estas políticas. Con menos revisores de contenido, actuamos sobre menos contenidos tanto en Facebook como en Instagram relacionadas con el suicidio y las autolesiones, la desnudez infantil y la explotación sexual en Instagram», afirma Facebook en el comunicado.
Asimismo, la empresa reconoce que la cantidad de denuncias al respecto ha sido «mucho menor» durante el segundo trimestre debido a que Facebook no siempre ha podido ofrecerlas. La compañía tampoco ha compartido, como es habitual en sus informes, los datos de prevalencia de estas publicaciones.
Mejoras sobre algunos contenidos
Según afirma la red social, las mejoras en su tecnología han permitido que entre abril y junio aumentara la tasa de detección sobre algunos contenidos. De este modo, la compañía sostiene que se encontraron más publicaciones relacionadas con discursos de de odio respecto al anterior trimestre. El aumento fue de 6 puntos, pasando, de este modo, del 89% al 95% de lo publicado. En base a esto, la cantidad de contenido sobre el que se tomaron medidas aumentó de 9,6 millones en el primer trimestre a 22,5 millones en el segundo.
En Instagram, la tasa de detección proactiva de discursos del odio aumentó 39 puntos, de 45% a 84% y la cantidad de contenido sobre el que se tomaron medidas aumentó de 808.900 en el primer trimestre de 2020 a 3,3 millones en el segundo trimestre. Asimismo, se ha mejorado a la hora de encontrar contenido relacionado con el terrorismo. Según Facebook, la cantidad de contenido de este tipo sobre el que se actuó aumentó de 6,3 millones en el primer trimestre a 8,7 millones en el segundo.
Publicación de contenido sobre la pandemia
Facebook, además, ha anunciado la introducción una nueva función destinada a informar a un usuario sobre los objetivos que debe perseguir una publicación relacionada con el coronavirus. De este modo, cuando alguien va a compartir un enlace sobre la pandemia, la red social lo detecta y envía una notificación que recuerda al usuario que se trata de información sobre la Covid-19 y le remite al centro de información de la compañía, con datos sobre instituciones sanitarias y fuentes fiables.
Asimismo, este mensaje informa de cuándo se publicó originalmente el contenido y en qué sitio web, así como en qué momento se registró la página en la plataforma. Esta notificación se mostrará a los usuarios de Facebook pero no a las autoridades sanitarias ni a los gobiernos, ya que la plataforma quiere «asegurarse de no frenar la difusión de información de fuentes sanitarias creíbles».
Fuente: ABC Tecnología