Quante volte ci capita di ricevere richieste di amicizia da persone sconosciute e dal profilo davvero ambiguo? Quante volte leggiamo sulla nostra bacheca contenuti fuorvianti, minacciosi o indecenti? È un fenomeno davvero diffuso, tanto che l'azienda ha preso in mano con decisione la situazione e rende pubblici i numeri che parlano ben chiari sulla diffusione di account falsi e contenuti fake. Scoprimao meglio i dettagli di questa operazione contro i profili facebook falsi.
Account falsi facebook: misure contro chi non rispetta gli standard
Zuckerberg ci permette, grazie al tasto "segnala", di porre sotto l'attenzione dell'azienda tutti quei contenuti che reputiamo indecenti o pericolosi e che non rispettano gli standard della comunità. Ma molti di più sono gli account e i contenuti che Facebook è riuscito ad intercettare e ad eliminare di propria iniziativa prima ancora delle segnalazioni da parte delgi utenti.
Infatti l'azienda ha reso noto che solamente nel primo trimestre del 2018, sono stati rimossi ben 583 milioni di account falsi e la maggior parte di essi è stata bloccata a pochi minuti dalla creazione, grazie anche agli ID identificativi. È importante sottolineare che un profilo facebook falso sia strettamente legato ai contenuti che produce. In altre parole: i finti account sono i generatori di contenuti spazzatura, o anche detti spam, e di fake news. L'altro dato messo a disposizione dall'azienda descrive proprio la circolazione di contenuti parassitari. Sono stati romossi ben 837 milioni di spam nei primi tre mesi del 2018 e la quasi totalità di essi è stata intercettata prima ancora delle sgnalazioni degli utenti di post e link.
In questo report Facebook, che documenta l'applicazione e gli standard da rispettare sulla piattaforma, ha illustrato anche i processi di revisione contenutistica e ha ammesso come lo scoglio più grande nella lotta alle violazioni sia costituito proprio dall’individuazione di falsi profili e relativi contenuti.
Ancora qualche numero. Viene reso noto che, nonostante la pulizia, fossero esistenti ancora account parassitari per un 3-4% della totalità. Sono stati rimossi 21 milioni di contenuti pornografici o di nudo sempre nel primo periodo del 2018. Il 96% della totalità è stata rilevata dalla tecnologia automatizzata prima ancora delle segnalazioni comuni. Facebook ha cancellato o etichettato come potenzialmente pericolosi 3 milioni e mezzo di contenuti violenti (parliamo sempre dei primi tre mesi del 2018). Tra essi, l'86% è stato individuato dall'intelligenza artificiale prima delle segnalazioni di utenti e sono state rimosse 2 milioni e mezzo di esternazioni che incitavano all’odio; in questo caso il 38% riconosciuto automaticamente dalla tecnologia automatizzata.
Per 10.000 contenuti visualizzati sul social network, tra le 7 e le 9 visualizzazioni riguardavano contenuti pornografici o che comunque violavano gli Standard comunitari.
La squadra di Zuckerberg ha ancora qualche difficolta nella creazione di un algoritmo che riconosca contenuti inneggianti la violenza o di incitamento all'odio ed è quindi ancora estremamente necessario l'ausilio del team di revisione. Infatti capita spesso che nostri status o post vengano bloccati senza un apparente motivo. L'intelligenza artificiale non è ancora in grado di distinguere se si tratti effettivamente di incitamento alla violenza, di una testimonianza o di una denuncia. La tecnologia ha bisogno di una mole incredibile di informazioni a supporto per poter discernere tra diversi modelli di comportamento e non tutte le casistiche hanno lo stesso livello di attenzione o segnalazione che rendono conosciuto quel comportamento all'intelligenza artificiale.
Resta aggiornato con noi su tutti gli aggiornamenti Facebook.