0 risultati
video suggerito
video suggerito
27 Febbraio 2025
12:02

L’algoritmo di Instagram suggerisce contenuti sensibili e violenti nei reel: le possibili cause

Sono molte le segnalazioni degli utenti su un improvviso cambiamento nell'algoritmo del feed di Instagram, in cui si moltiplicano reel violenti e disturbanti per alcuni utenti. Meta ha corretto l'errore nell'algoritmo, ma la recente modifica nella policy di Meta sulla moderazione solleva dubbi sul controllo dei contenuti da parte della piattaforma.

627 condivisioni
L’algoritmo di Instagram suggerisce contenuti sensibili e violenti nei reel: le possibili cause
Instagram

Diversi utenti di Instagram hanno segnalato un aumento repentino di contenuti disturbanti sulla piattaforma, in particolare reel con scene violente come risse, incidenti, violenza su animali, tutto senza censura anche per gli utenti che hanno scelto di limitare i contenuti che rientrano nella categoria NSFW (Not Safe For Work). In queste ore Meta, la società che si occupa dello sviluppo del social network, ha difatti confermato la cosa scusandosi per l'accaduto. Gli utenti di Instagram hanno segnalato in modo particolare un aumento improvviso di contenuti violenti e disturbanti nel feed relativo ai reel (i video di pochi secondi che compaiono “scrollando” lo schermo), anche quando il massimo livello di protezione era stato impostato nel “Controllo dei contenuti sensibili” dell'app. Meta ha dichiarato che si è trattato di un errore tecnico, prontamente corretto.

Questo episodio, però, arriva in un momento particolare: l'azienda ha recentemente modificato il modo in cui modera i contenuti, dando maggiore visibilità a post in precedenza declassati dai sistemi automatizzati. Questa modifica è arrivata a seguito di un importante “cambio di rotta” voluto dal CEO di Meta, Mark Zuckerberg, che include anche una revisione delle politiche sui contenuti politici e la rimozione di alcuni controlli sulla disinformazione. La tempistica di queste modifiche, che coincidono con il ritorno di Donald Trump sulla scena politica statunitense, solleva interrogativi sulla possibile relazione tra il “rilassamento” delle regole di moderazione e la maggiore diffusione di contenuti controversi.

Perché l'algoritmo di Instagram ha suggerito reel disturbanti? Cosa sta succedendo

La visibilità di contenuti violenti sarebbe dovuto a un errore nell'algoritmo del social network. L'algoritmo di Instagram è basato su un sistema di intelligenza artificiale che seleziona e promuove contenuti in base agli interessi e alle interazioni degli utenti. Questo sistema si affida a un mix di tecnologie, tra cui il machine learning (apprendimento automatico), per individuare i contenuti più coinvolgenti e mostrarli nel feed di ciascun utente. Nonostante l'uso di un algoritmo così efficiente, la gestione dei contenuti sensibili rimane complessa: pur esistendo linee guida che vietano immagini esplicitamente violente, Meta consente alcune eccezioni, ad esempio per post che denunciano violazioni dei diritti umani o eventi di rilevanza pubblica.

Il recente caso dei reel violenti suggeriti agli utenti potrebbe essere stato quindi effettivamente causato da un errore nei filtri di moderazione, come affermato da Meta, che tramite un portavoce ha rilasciato la seguente dichiarazione alla CNBC:

Abbiamo corretto un errore che ha fatto sì che alcuni utenti vedessero nel loro feed Instagram reel contenuti che non avrebbero dovuto essere consigliati. Ci scusiamo per lo sbaglio.

Il ruolo di Meta nel nuovo scenario politico americano

Alcuni, però, sono dubbiosi circa il reale motivo per cui l'algoritmo di Meta abbia proposto i contenuti in questione. Secondo queste ipotesi il problema potrebbe essere più profondo e legato a un cambiamento strutturale nel modo in cui la piattaforma gestisce la visibilità dei contenuti.

A gennaio, Meta ha infatti annunciato una revisione delle sue policy, passando da un controllo rigido e automatizzato su tutte le potenziali violazioni a un approccio più selettivo, concentrandosi solo su «violazioni illegali e di elevata gravità, come terrorismo, sfruttamento sessuale dei minori, droga, frode e truffe». Per le violazioni considerate “meno gravi”, invece, la piattaforma affida agli utenti la responsabilità di segnalarle. Tradotto in parole povere, questo significa che alcuni contenuti che in passato sarebbero stati automaticamente declassati o nascosti potrebbero ora essere visibili finché non vengono segnalati manualmente dall'utente di turno.

La tempistica di queste modifiche non è casuale. Il cambiamento delle regole di moderazione è avvenuto poco dopo la decisione di Meta di rivedere la propria politica sui contenuti politici e sull'informazione. Zuckerberg ha dichiarato di voler ridurre l'intervento della piattaforma nella moderazione di post politici e di interrompere il programma di fact-checking di terze parti negli Stati Uniti, sostituendolo con un sistema simile a quello adottato da X di Elon Musk, chiamato “Community Notes”. Questo modello prevede che gli stessi utenti aggiungano contestualizzazioni ai contenuti ritenuti discutibili, invece di un intervento diretto della piattaforma.

Queste mosse sono state interpretate come un tentativo di riallacciare i rapporti con Donald Trump e i suoi sostenitori, che in passato hanno criticato Meta per aver limitato la diffusione di contenuti conservatori. Zuckerberg ha anche incontrato la Casa Bianca per discutere del ruolo di Meta nella promozione della leadership tecnologica americana, alimentando le speculazioni sulle possibili pressioni politiche a cui è sottoposto “Mr. Zuck”.

Il futuro incerto della moderazione di Meta

Ricapitolando, quindi, da un lato Meta afferma che il suggerimento di reel disturbanti è stato frutto di un errore tecnico, dall'altro il nuovo approccio alla moderazione potrebbe aver contribuito (volontariamente o involontariamente) a rendere l'algoritmo più permissivo, riducendo la capacità dei sistemi di filtrare contenuti controversi prima che raggiungano gli utenti. Va detto che il taglio di oltre 21.000 dipendenti tra il 2022 e il 2023, che ha colpito in particolare i team che si occupavano di contrastare contenuti pericolosi e disinformazione, potrebbe aver ulteriormente ridotto l'efficacia della moderazione. La domanda che sorge spontanea a questo punto della nostra considerazione è: quale sarà il futuro della moderazione di Meta?

Fonte
Sfondo autopromo
Cosa stai cercando?
api url views