instaangr

Instagram dice di essere pronto a “guidare l’industria” nella lotta al bullismo. Ma la lotta al bullismo è opposta ai sistemi di incentivi che muovono l’azienda Facebook.

Nei mesi successivi all’elezione di Trump, mentre iniziava a emergere la percezione che Facebook e Twitter fossero pieni di propaganda neofascista, è spuntata un’espressione curiosa, che definiva Instagram come “the last good social network.” Le ragioni avanzate erano l’impossibilità di pubblicare link diretti — che mina il modello di business dei produttori di propaganda e notizie deformate — e il focus grafico incentrato sulle “cose belle.” 

In realtà, Instagram già allora strapieno di contenuti reazionari, che incitano all’odio verso minoranze etniche, di genere, politiche. — e lo è ancora.

Instagram è tutto tranne che l’ultimo buon social network e ha una serie di problemi gravi. Ciclicamente li affronta per cercare di mantenere la propria buona fama, di un posto piú accogliente e meno tossico di Twitter e Facebook: il responsabile del servizio Adam Mosseri ha annunciato l’altro ieri che sarebbe “andato in guerra” contro il cyberbullismo, con l’obiettivo di “guidare l’industria in questa battaglia.”

Il problema del cyberbullismo è tra i piú radicati nelle piattaforme social, in particolare tra gli utenti piú giovani. Secondo un report di Conacy, il centro italiano per il contrasto al cyberbullismo di Milano, un ragazz* su quattro in Italia è vittima di cyberbullismo. Negli Stati Uniti il problema è ancora piú diffuso: una ricerca di Pew calcolava che ne siano stati vittima il 59% dei teenager statunitensi.

Il bullismo su internet ha una peculiarità particolarmente tossica: la comunicazione digitale per le nostre generazioni è “always on,” creando di fatto una situazione in cui i giovani non hanno nessuno spazio sicuro di rifugio contro la violenza verbale e grafica delle persone che li tormentano.

Malgrado la legge approvata in Italia nel 2017, e il ruolo centrale che la scuola pubblica deve rivestire per combattere il fenomeno a livello sociale, Mosseri ha ragione quando dice che i social network debbano offrire strumenti migliori agli utenti. Ma questo è ben lontano da “guidare l’industria.” 

Diciamo chiaramente di cosa si sta parlando: la lotta al cyberbullismo non è un problema di secondo piano del primo mondo, è la lotta per la salute mentale delle prossime generazioni. Il cyberbullismo uccide: ad Hong Kong, ad esempio, è stato collegato ad un aumento notevole nel numero di suicidi tra i giovani. Secondo Sky Siu, direttrice di un gruppo di supporto locale, gli effetti del cyberbullismo possono essere forti come quelli del bullismo nel mondo reale, e possono avere lo stesso tipo di conseguenze. 

Le misure che verranno introdotte nelle prossime settimane, disponibili nei prossimi aggiornamenti dell’app per Android e iOS, sono sostanzialmente due:

  • un filtro, gestito da “intelligenza artificiale,” con il compito di identificare i commenti che sembrano essere bullismo e aggiungere un passaggio in piú, chiedendo all’utente se veramente vuole postare il commento negativo che sta scrivendo;
  • la funzionalità per chi subisce atti di bullismo di rendere “invisibile” il violento senza bloccarlo o defollowarlo, azioni che possono avere conseguenze nel mondo reale.

Il problema di entrambe le misure è che ripongono tutta la responsabilità nel contrastare il bullismo nelle mani degli utenti. La prima proposta è a dir poco ridicola: evidentemente Instagram non ha grandissima fiducia negli algoritmi che determinano quale post “potrebbe essere bullismo:” altrimenti potrebbe proporre soluzioni completamente automatizzate. La funzionalità ambirebbe a cambiare il comportamento degli utenti indicandogli se un loro commento è problematico, ma invece, se si rivelerà efficace, potrebbe essere usato esattamente al contrario: come motivo di vanto per l’aggressore, che vedrà confermata la malignità del proprio commento.

La possibilità di effettuare ban invisibili, in inglese shadowban, è una tecnica vecchia come l’internet, e che ha tradizionalmente ben servito i servizi che hanno inserito la funzionalità — l’esempio piú noto in questi anni è l’implementazione di Reddit — ma come nel caso di Reddit si tratta di una soluzione incompleta. Non solo creare nuovi account è estremamente facile, perché la crescita del numero di utenti è una variabile commercialmente troppo importante per queste aziende, ma soprattutto ha tradizionalmente funzionato bene per servizi che riconoscono a una classe di utenti il ruolo di moderatori. Instagram chiede ai molti minorenni che lo usano di diventare moderatori del loro stesso contenuto, di agire attivamente per limitare la violenza che subiscono. È una richiesta impossibile per persone giovanissime, che non possono essere poste di fronte a questi meccanismi.

In particolare, non è affatto scontato che i meccanismi dello shadowbanning non portino conseguenze nel mondo reale come fanno bloccare o defolloware una persona.

Come dimostra la diffusa teoria del complotto che Twitter avesse praticato effettivamente shadowbanning dai propri campi di ricerca di diverse personalità dell’ecosistema conservatore statunitense, l’idea non solo ha le gambe per diffondersi, ma la sua presunta “invisibilità” può produrre ulteriori incomprensioni e tensioni non giustificate tra le persone.

Il problema sottostante a qualsiasi strumento offerto da Instagram è evidente: il sistema di incentivi che muove l’azienda è diametralmente opposto alle necessità della lotta al bullismo su internet — gli account troll sono nuovi utenti, le aggressioni sono preziose interazioni, il flame fa tornare gli utenti. Per questo è impossibile non guardare con sospetto la transizione di Facebook verso una maggiore privacy nei propri prodotti: con la progressiva chiusura e maggiore segretezza delle offerte social di Facebook, monitorare il cyberbullismo e i suoi effetti sarà sempre piú difficile, se non impossibile. Per “guidare l’industria” nella lotta al cyberbullismo non bastano solo sistemi di filtri e strumenti di automoderazione, è necessario un vero intento nel limitare l’accesso alla piattaforma ai violenti, anche a costo di ridurre il numero di interazioni o peggio, di utenti attivi mensilmente.

Segui @amassone su Twitter

Blogger, designer, cose web e co–fondatore di the Submarine.