Hace un mes, Facebook publicó por primera vez sus pautas internas para el cumplimiento de la comunidad y, en la actualidad, la compañía ha proporcionado algunos números para mostrar cómo se ve realmente esa aplicación. Así que en un nuevo informe que se publicará trimestralmente, Facebook desglosa sus esfuerzos de aplicación en seis áreas principales: violencia gráfica, desnudez de adultos y actividad sexual, propaganda terrorista, discurso de odio, spam y cuentas falsas. El informe detalla cuánto de ese contenido fue visto por los usuarios de Facebook, cuánto fue eliminado y cuánto fue eliminado antes de que cualquier usuario de Facebook lo informara.
Es cierto que el spam y las cuentas falsas fueron las más frecuentes y, en el primer trimestre de este año, Facebook eliminó 837 millones de spam y 583 millones de cuentas falsas. Además, la compañía actuó sobre 21 millones de piezas de desnudez y actividad sexual, 3,5 millones de mensajes que mostraban contenido violento, 2,5 millones de ejemplos de discurso de odio y 1,9 millones de contenido terrorista.
Es importante resaltar que en algunos casos, los sistemas automatizados de Facebook hicieron un buen trabajo al buscar y marcar contenido antes de que los usuarios pudieran denunciarlo. Sus sistemas detectaron casi el 100 por ciento del spam y la propaganda terrorista, casi el 99 por ciento de las cuentas falsas y alrededor del 96 por ciento de los mensajes con desnudos de adultos y actividad sexual.
Por otro lado, para la violencia gráfica, la tecnología de Facebook representó el 86 % de los informes. Aunque, cuando se trataba de discursos de odio, la tecnología de la compañía solo marcaba el 38 % de las publicaciones en las que actuaba y Facebook señala que tiene mucho trabajo por hacer allí. “Como dijo Mark Zuckerberg en F8, todavía tenemos mucho trabajo por hacer para evitar el abuso”, dijo en una publicación el vicepresidente de gestión de producto de Facebook, Guy Rosen.. “En parte, la tecnología como la inteligencia artificial, si bien es prometedora, aún está a años de ser efectiva para la mayoría de los contenidos malos porque el contexto es muy importante”.
“Creemos que una mayor transparencia tiende a llevar a una mayor responsabilidad y responsabilidad en el tiempo, y la publicación de esta información nos impulsará a mejorar más rápidamente también”, escribió Rosen. “Esta es la misma información que usamos para medir nuestro progreso internamente, y ahora puede verlo para juzgar nuestro progreso por ustedes mismos. Esperamos sus comentarios”.