Meta ha reso noti, con un certo ritardo, i risultati di un rapporto esterno che ha evidenziato come le sue politiche di moderazione dei contenuti abbiano influenzato israeliani e palestinesi nel corso dell’escalation di violenza nella Striscia di Gaza nel maggio 2021. Il rapporto, redatto da Business for Social Responsibility (BSR), ha rilevato che Facebook e Instagram hanno violato il diritto dei palestinesi alla libera espressione.

Sulla base dei dati esaminati, dell’esame dei singoli casi e dei relativi materiali e del coinvolgimento di stakeholder esterni, le azioni di Meta nel maggio 2021 sembrano aver avuto un impatto negativo sui diritti umani degli utenti palestinesi alla libertà di espressione, alla libertà di riunione, alla partecipazione politica e alla non discriminazione, e quindi sulla capacità dei palestinesi di condividere informazioni e approfondimenti sulle loro esperienze nel momento in cui si sono verificate“, scrive BSR nel rapporto.

Il rapporto rileva che anche alcuni account israeliani sono stati erroneamente vietati o limitati durante questo periodo ma gli autori del rapporto evidenziano diversi problemi sistemici che avrebbero colpito maggiormente i palestinesi.

Secondo il rapporto, “i tassi di rilevamento proattivo di contenuti arabi potenzialmente violati sono stati significativamente più alti dei tassi di rilevamento proattivo di contenuti ebraici potenzialmente violati“. Il rapporto rileva inoltre che Meta disponeva di uno strumento interno per rilevare “discorsi ostili” in arabo, ma non in ebraico, e che i sistemi e i moderatori di Meta avevano una minore accuratezza nel valutare l’arabo palestinese. Di conseguenza, gli account di molti utenti sono stati limitati e i post sono stati rimossi da Facebook e Instagram senza che vi fosse un’effettiva violazione delle politiche dell’azienda.

Meta aveva commissionato il rapporto in seguito a una raccomandazione dell’Oversight Board dello scorso autunno. In risposta al rapporto, Meta ha dichiarato che aggiornerà alcune delle sue politiche, compresi diversi aspetti della sua politica sugli individui e le organizzazioni pericolose (DOI).

Meta ha inoltre iniziato a sperimentare la costruzione di un classificatore arabo specifico per i dialetti per i contenuti scritti e ha modificato il suo processo interno di gestione delle parole chiave e delle “liste di blocco” che influiscono sulla rimozione dei contenuti.

Afferma inoltre che sta “valutando la fattibilità” di una raccomandazione che prevede di avvisare gli utenti quando vengono inserite limitazioni di funzioni e di ricerca sugli account degli utenti che hanno ricevuto un avvertimento.

Articolo precedenteOne UI 5.0 di Samsung arriverà prima su questi smartphone
Articolo successivoBoeing pagherà 200 mln di dollari per l’indagine sui 737 Max
Carolina Napolano
La tecnologia, roba da donne: ecco la blogger per promuovere il lato rosa della tecnologia.