Facebook e i suoi gruppi "scomodi", gli incitamenti all'odio e alla violenza, oppure i messaggi offensivi in cui capita di imbattersi all'interno del social network di Mark Zuckerberg, sono sempre più spesso oggetto di critiche e polemiche accese, e in alcuni casi hanno spinto le autorità di vari Paesi - come Francia e Italia - a prendere in considerazione l'istituzione di nuove regole per la fruizione e l'utilizzo del web.

Proprio per semplificare e agevolare l'identificazione di contenuti inappropriati, Facebook introduce un nuovo strumento di moderazione all'interno della sua rete sociale, battezzato Community Council, al fine di rendere ancora più efficiente il lavoro di controllo già svolto dai membri del suo staff. In questo caso però, il controllo sarà affidato ai 350 milioni di utenti che compongono il network. Al momento non accessibile se non su invito (dato che ancora è in fase beta) e solamente per l'area degli Usa, la nuova applicazione consentirà una supervisione "dal basso": saranno infatti gli stessi utenti a segnalare messaggi, gruppi o immagini sconvenienti catalogandoli alle voci "spam", "nudità", "droga", "attacchi personali" e "violenza", diversamente i post possono essere classificati come "accettabili". Facebook si affida quindi al crowd-sourcing per la moderazione delle proprie pagine e invita la sua comunità a collaborare.

Interrogati sull'argomento, gli addetti ai lavori presso Facebook hanno spiegato che "il nuovo strumento consente agli utenti di comunicarci se i materiali segnalati violano o meno la nostra policy". In questo modo, dicono, sarà possibile garantire la sicurezza della community e del network, nonché la sua affidabilità. Non ultimo, l'azienda Facebook sarà in grado di raccogliere - senza sforzo alcuno - un'infinità di informazioni sul tipo di contenuti che le persone ritengono essere offensivi o meno, riuscendo anche a monitorare come tali percezioni cambiano nel tempo.

Tutto su Facebook