Preoccupazioni sulla sicurezza dei contenuti in Instagram portano alla sospensione delle pubblicità da parte di investitori.

Due importanti sviluppatori di app per incontri hanno deciso di interrompere la visualizzazione di materiale pubblicitario su Instagram. Questa decisione è stata presa a seguito delle preoccupazioni che il social network non stia rispettando l’accordo di mostrare annunci esclusivamente in ambienti dell’app privi di contenuti inappropriati, quali materiale sessualmente esplicito e discorsi di odio.

Come riportato dal Wall Street Journal il 27 novembre, è emerso che l’algoritmo di raccomandazione di Instagram potrebbe visualizzare contenuti non correlati e inappropriati. Durante i test, è stato notato che lo stesso account poteva ricevere suggerimenti per contenuti con influencer giovani e bambini e video a sfondo sessuale.

Questa ricerca è stata condotta in seguito all’osservazione che molti follower di giovani ginnaste, cheerleader e altri influencer adolescenti e pre-adolescenti sulla piattaforma erano uomini adulti. Secondo il rapporto, Instagram ha fornito agli account di prova “dosi scioccanti” di contenuti che includevano immagini di bambini e video di adulti a sfondo sessuale, oltre a pubblicità di alcune delle più grandi aziende degli Stati Uniti, tra cui sviluppatori di app per incontri.

In uno dei flussi di prova sul feed di Instagram, un account ha ricevuto un annuncio pubblicitario dell’app di incontri Bumble, posizionato tra un video di una persona che accarezza il volto di una bambola in lattice a grandezza naturale e un video di una giovane donna con il volto oscurato digitalmente che si alza la camicia per esporre l’addome.

In un altro caso, la pubblicità di Pizza Hut ha seguito il video consigliato di un uomo sdraiato su un letto con il braccio intorno a quella che, secondo la didascalia della pubblicazione, era una bambina di 10 anni.

Meta, la società madre di Instagram, sostiene che i test condotti dal Wall Street Journal abbiano prodotto risultati non compatibili con l’esperienza della maggior parte degli utenti su Instagram. Un portavoce di Meta ha affermato che a ottobre sono stati introdotti nuovi strumenti di controllo degli annunci per ovviare a questo tipo di problemi sulla piattaforma.

Tra le aziende che hanno trovato i loro nomi accanto a questi materiali inappropriati nei test ci sono Disney, Walmart, Match Group (proprietario di Tinder) e Hims (società di teleassistenza specializzata in disfunzioni erettili).

Justine Sacco, portavoce di Match Group, ha dichiarato: “Non abbiamo alcuna intenzione di pagare Meta per commercializzare i nostri marchi ai predatori o di collocare i nostri annunci in prossimità di tali contenuti”.

Robbie McKay, portavoce di Bumble, ha dichiarato che l’azienda “non pubblicizzerà mai intenzionalmente contenuti inappropriati” e che l’app di incontri sta sospendendo le sue pubblicità sulle piattaforme di Meta.

Un precedente studio del Wall Street Journal di giugno ha suggerito che Instagram è il principale social network che facilita il contatto tra pedofili e la condivisione di materiale pedopornografico. Gli algoritmi di raccomandazione sono stati identificati come un fattore chiave in questo processo.

È stato rilevato che anche i grandi account pubblicizzavano apertamente questo tipo di contenuti, sfruttando le funzioni di messaggistica diretta per facilitare la connessione tra acquirenti e venditori. Secondo la ricerca, questa connessione avveniva spesso attraverso hashtag relativi a contenuti pornografici.

Queste rivelazioni sollevano serie preoccupazioni riguardo la sicurezza e l’adeguatezza dei contenuti su Instagram, mettendo in discussione le politiche e i controlli implementati dalla piattaforma per proteggere i suoi utenti, in particolare i più giovani.

Articolo precedenteSuper Mario: le vendite dei giochi aumentano grazie al film
Articolo successivoiliad: Natale è per sempre, con offerte chiare e trasparenti
Team CEOTECH
La tecnologia dovrebbe arricchire la vita delle persone oltre a tutelare il pianeta.