Perché le nuove funzioni “anti-pedopornografia” annunciate da Apple sono un problema

https://i1.wp.com/thesubmarine.it/wp-content/uploads/2021/08/foto_apple_spy.jpg?fit=1200%2C800&ssl=1

foto di Pexels via Pixabay

Il sistema potrebbe essere convertito in qualsiasi momento in uno strumento di spionaggio di massa, per rintracciare e perseguire minoranze, attivisti e oppositori politici

Giovedì scorso Apple ha annunciato una serie di misure per la “protezione dei bambini” che hanno fatto rabbrividire gli esperti e gli attivisti per la privacy. Si tratta di tre programmi separati, che per ora saranno applicati solo negli Stati Uniti — ma nel proprio comunicato stampa l’azienda di Cupertino ha scritto che i suoi impegni “si evolveranno e si espanderanno del tempo” perché “proteggere i bambini è una responsabilità importante.” 

Ma come dovrebbero essere protetti i bambini? Provando a metterle in ordine dalla meno problematica a quella più preoccupante, queste sono le novità annunciate: 

  • Un aggiornamento di Siri che segnalerà agli utenti se stanno facendo ricerche “problematiche” legate a contenuti pedopornografici;
  • Un aggiornamento di iMessage, la piattaforma di messaggistica pre-installata su tutti gli iPhone, che segnalerà ai genitori quando la propria figlia o il proprio figlio dovesse ricevere immagini sessualmente esplicite;
  • Un aggiornamento delle funzionalità del sistema operativo che cercherà le immagini segnalate come pedopornografiche direttamente sul telefono delle persone.

Riguardo il primo punto non c’è molto da dire: da anni i gestori dei motori di ricerca aggiungono informazioni — per così dire — “editorializzate” ad alcune chiavi di ricerca. È un servizio spesso anche socialmente utile, e si attiva in seguito a un’azione proattiva dell’utente. L’aggiornamento di iMessage, al contrario, è piuttosto allarmante. Per prima cosa, si parte dal presupposto che i genitori siano referenti adatti a supervisionare le prime esplorazioni di natura sessuale di un* giovane adolescente — cosa che, purtroppo, non è sempre vera. 

Un algoritmo osserverà le foto che ricevono gli account indicati come “bambini” nel Controllo parentale di iCloud, e manderà ai genitori una notifica con una copia delle foto individuate come sessualmente esplicite. La funzionalità potrebbe essere usata per spiare anche non–minori, ma rischia di mettere particolarmente in pericolo i minori queer: storicamente, gli algoritmi faticano a distinguere contenuti che esprimono una sessualità privata da contenuti più esplicitamente pornografici (qui, ad esempio, uno studio sull’argomento): il sistema progettato da Apple rischia quindi di “fare da spia” presso genitori omobitransfobici, ottenendo un risultato opposto a quello desiderato, mettendo in pericolo i più giovani invece di proteggerli.

Con la terza funzionalità, invece, Apple inserisce nel proprio sistema operativo uno spyware con cui minaccia di dare inizio a uno spionaggio di massa senza precedenti: tutte le foto dei possessori di iPhone saranno attivamente “scandagliate” da un algoritmo, alla ricerca di immagini pedopornografiche. 

Facciamo un passo indietro: come fa Apple a riconoscere le immagini di pedopornografia? Il termine tecnico utilizzato negli Stati Uniti per indicare questi materiali è CSAM, Child Sexual Abuse Material. Una non–profit finanziata e fondata dal governo statunitense — il National Center for Missing and Exploited Children, o NCMEC — cura un database di tutti i CSAM noti alle autorità. Nonostante sia finanziato dagli Stati Uniti, il NCMEC fornisce i propri servizi anche ai paesi europei, per cui è prevedibile che questa funzionalità potrà essere estesa all’Ue in tempi brevi.

Apple, per cercare di difendere la propria posizione, ha pubblicato un sommario tecnico molto dettagliato, in cui spiega come funzionerà la rilevazione di immagini pedopornografiche. In ordine:

  1. Per ogni CSAM è generato un hash, una stringa arbitraria ma univoca, che identifica quel singolo materiale;
  2. Ogni iPhone impostato per caricare le proprie foto su iCloud Photo Library — il servizio che sincronizza le foto tra telefoni, tablet e computer Apple — scansionerà le immagini del proprio rullino fotografico per controllare che non ci siano file che hanno lo stesso hash tra quelli presenti nel database organizzato dal NCMEC;
  3. Se un iPhone contiene almeno due immagini che fanno scattare “l’allarme” inserito da Apple, scatta una procedura di verifica sul suo account iCloud, e, se necessario, la persona viene segnalata alle autorità.

A prima vista, non sembra una funzionalità problematica, anzi: sembra una minuscola richiesta in cambio della possibilità di individuare le persone che detengono e condividono immagini di pedopornografia. Dopotutto, se usate Google Photos negli Stati Uniti le vostre immagini vengono già confrontate con il database NCMEC, e anche se utilizzate spazio sui cloud di Microsoft, di Amazon o appoggiati su server Amazon, oppure se usate servizi di Facebook, eccetera. 

Tutte queste ricerche vengono effettuate come “Pinpoint Search,” e quindi potenzialmente non prevedono nessuna invasione della privacy per chi non ha CSAM: i file con altri valori hash, infatti, sono semplicemente ignorati dal sistema. La differenza radicale, tuttavia, rispetto alle altre soluzioni, è che in questo caso la scansione non viene effettuata sui server delle aziende, in cloud, ma direttamente sui propri dispositivi.

Come sottolinea Julian Sanchez, si tratta di un meccanismo molto pericoloso, che si può trasformare in un attimo in uno strumento di ricerca contro minoranze o oppositori politici. Infatti, anche a volersi fidare di Apple per la condotta tenuta finora in materia di privacy, in qualsiasi momento il database del NCMEC potrebbe essere sostituito — per necessità regionali, in primis — con database che contengono altri tipi di immagini. 

Quello che Apple ha costruito è uno strumento di spionaggio di massa, le cui limitazioni attuali — il fatto di essere limitato per utenti che usano iCloud Photo Library, e solo per la ricerca di CSAM — potrebbero essere eliminato o modificate dall’azienda in qualsiasi momento, in modo unilaterale e senza che l’utente ne venga mai a conoscenza — almeno finché non viene arrestato per essere in possesso di propaganda anti–governativa in qualche stato più o meno autoritario. Si tratta di uno spyware estremamente invasivo, che funziona, senza usare iperboli, come un sistema analogo, obbligatorio in Corea del Nord su tutti i computer, e che non ha precedenti in nessun sistema operativo commerciale distribuito da quando i sistemi operativi esistono.

L’annuncio di Apple è stato due volte scioccante per gli attivisti per la privacy, che negli anni avevano trovato nell’azienda un alleato potente, seppure “corporate” — come ha dimostrato la lettera aperta in supporto alle misure anti–tracking di iOS pubblicata lo scorso dicembre dalla Fondazione Mozilla. Dentro l’azienda ora tira una brutta aria: il giorno dopo l’annuncio è stato fatto circolare un memo in cui si chiede ai dipendenti di farsi coraggio durante questo ciclo di informazione particolarmente difficile: “i prossimi giorni saranno riempiti dalla voce stridente della minoranza,” e per questo gli alleati dell’azienda devono “alzare la voce” e pensare alle “tante migliaia di bambini” che saranno salvati grazie alla nuova funzionalità. Se anche voi, invece, volete unirvi alla “voce stridente della minoranza,” potete firmare questa lettera aperta che chiede ad Apple di tornare sui propri passi.

I prossimi giorni saranno importanti per capire come la situazione si evolverà: a causa della cultura della segretezza tanto cara ad Apple, è possibile che tanti dipendenti dell’azienda non fossero a conoscenza del progetto, e nelle prossime settimane potrebbero riuscire a fermarlo “dall’interno.” Il memo diffuso venerdì scorso fa pensare che immediatamente siano emersi forti dissapori e tensioni. Il dibattito in corso in questo momento su internet è, probabilmente, molto simile a quello che sta avvenendo all’interno dell’azienda stessa. Tuttavia, fino a leak o nuovi sviluppi, la sua immagine  resta compromessa, e non è la prima volta: Apple, che anni fa aveva pubblicamente contrastato gli eccessi dell’FBI, all’inizio del 2020 aveva già rinunciato a criptare end to end tutti i file di iCloud Drive in seguito a forti pressioni delle autorità statunitensi.

Sostieni l’informazione indipendente di the Submarine: abbonati a Hello, World! La prima settimana è gratis

Perché le nuove funzioni “anti-pedopornografia” annunciate da Apple sono un problema
logo-footer
TESTATA REGISTRATA AL TRIBUNALE DI MILANO (N. 162 DEL 11/05/2017).
DIRETTORE RESPONSABILE: ALESSANDRO BRAGA
© Undermedia S.r.l.s. 2021. Tutti i testi e le immagini presenti su questo sito web, dove non diversamente indicato, sono coperti da copyright, e ne è vietata la riproduzione anche parziale senza esplicita autorizzazione.
Perché le nuove funzioni “anti-pedopornografia” annunciate da Apple sono un problema

Resta nel nostro radar.

Segui the Submarine su Instagram e Twitter,
iscriviti al nostro canale Telegram
o alla nostra newsletter settimanale gratuita.

Copy link