Sangría en Facebook: Elimina el 24,4% de las cuentas (583 millones de los 2.200 millones de cuentas actuales) por publicar spam


Facebook-logos

Facebook clasifica lo que está permitido publicar y lo que no en sus normas de la comunidad. Exactamente cómo se guía la compañía a la hora de retirar o no un contenido, es algo que se hizo público por primera vez hace unas semanas, y en TreceBits contamos cuáles eran esos criterios.

Pero ahora, además, como parte de esa política de transparencia, Facebook ha dado a conocer datos sobre el seguimiento de sus directrices por parte de los usuarios.

Los números muestran cuanto contenido inapropiado ha sido visto por los usuarios, cuanto de este contenido ha sido retirado y cuantas infracciones han sido detectadas antes de ser reportadas por la comunidad

En el informe, que proporciona información sobre el periodo comprendido entre octubre de 2017 y marzo de 2018, se tienen en cuenta las siguientes áreas: violencia gráfica, desnudos adultos y actividad sexual, propaganda terrorista, incitación al odio, spam y cuentas falsas.

Teniendo en cuenta las dimensiones de Facebook, las cifras de contenido y cuentas eliminadas son astronómicas. Por ejemplo, en cuanto al spam, se han retirado 837 millones de publicaciones en los primeros tres meses de 2018.

Esos contenidos fueron publicados por 583 millones de cuentas, que también han sido eliminadas. Eso supone el 24,4% de las cuentas totales de la red social, que a día de hoy son 2.200 millones, cifra que comunicó Facebook en su última publicación de resultados trimestrales correspondientes al Q1.

Hay que tener en cuenta que la mayoría del spam proviene de cuentas automatizadas, por lo que los números en otras áreas -donde es más probable que el contenido haya sido publicado por un humano- son menores.

Las publicaciones sexuales –desnudos y pornografía– retiradas durante el primer trimestre de 2018, han sido 21 millones, de las cuales el 96% fueron eliminadas antes de que las reportase ningún usuario. La tecnología de detección temprana hace que de unas 10.000 publicaciones vistas por los usuarios, solo de 7 a 9 sean inapropiadas, según datos de Facebook.

Las publicaciones sobre violencia e incitación al odio no tienen un porcentaje de éxito tan alto, ya que son más difíciles de detectar, y a menudo requieren del arbitraje humano.

En este sentido, e han retirado 3,5 millones de piezas clasificadas como violentas y 2,6 millones de contenidos que incitaban al odio. En el primer caso, el 86% fue detectado de manera automática y en el segundo, solo el 38% fue retirado sin que fuese reportado por los usuarios.

 

Ver información original al respecto en Fuente:

__________

NOTA: Los interesados en información sobre contrato de soporte Asistencia Tecnica de SATINFO y/o licencia de uso/actualizaciones de sus utilidades, contacten con info@satinfo.es
__________

Este blog no se hace responsable de las opiniones y comentarios de los textos en los que se cita la Fuente, ofreciendo su contenido solo para facilitar el acceso a la información del mismo.

You can follow any responses to this entry through the RSS 2.0 feed. Both comments and pings are currently closed.

Los comentarios están cerrados.

 

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies