Echo Look, la nuova fotocamera di Amazon che vi dice se siete vestiti bene al mattino, è il prossimo passo nel nostro costante slittamento verso l’autoritarismo.
Ieri pomeriggio Amazon ha presentato un nuovo prodotto della linea Echo â gli altoparlanti musicali che contengono anche un assistente personale, stile Siri â chiamato Alexa. Secondo le voci di corridoio, il nuovo prodotto avrebbe dovuto contenere anche uno schermo, rendendo il nuovo Echo una sorta di tablet da cucina, o da salotto.
Le voci, ora è abbastanza chiaro, venivano dal reparto marketing, perchĂŠ il nuovo prodotto si chiama Echo Look â ma non siete voi a guardarlo, è il contrario.
Echo Look è un sistema audio con anche una fotocamera. Si può usarlo come qualsiasi altro speaker per parlare con Alexa e ascoltare musica, ma gli si può anche chiedere di scattare foto. Non foto qualsiasi: Echo Look è presentato ai clienti come una sorta di âspecchio smartâ, può scattare foto di come siete vestiti, e valutare se state bene. âQuel giacchino non funziona con quel vestito, meglio un cardigan a righeâ â le foto appaiono su unâapp per smartphone con variabili di stile. Lo scopo, nemmeno troppo nascosto, è creare una linea di contatto diretto tra il vostro âspecchioâ e la vendita di moda diretta di Amazon. Non riuscite a trovare nemmeno un paio di scarpe che stia bene con quel vestito? BisognerĂ comprarne un altro paio.
A 199 dollari, Echo Look è posizionato come un prodotto di lusso: fatichiamo a credere che possa riprodurre musica con una qualitĂ del suono paragonabile a qualsiasi speaker in vendita anche solo alla metĂ del suo prezzo â è troppo piccolo, e câè troppa altra tecnologia dentro. No, malgrado le altre funzioni, questo è chiaramente un gadget con uno scopo solo: valutare come vi vestite, e se vi vestite male, invitarvi a comprare vestiti piĂš belli da Amazon.
Insomma, è uscito da una puntata di Black Mirror cosĂŹ comâè, senza pensare alle implicazioni di privacy e, piĂš in generale, di come funziona il capitalismo.
Dietro le quinte, le foto scattate da Echo Look sono processate dagli algoritmi di intelligenza artificiale che muovono gli altri prodotti della famiglia. Finora, tuttavia, ogni volta che abbiamo chiesto a intelligenze artificiali di valutare o modificare foto, abbiamo scoperto che i risultati sono sempre profondamente razzisti e sessisti â non è chiaro esattamente perchĂŠ. Lâipotesi piĂš diffusa è che si tratti di confirmation bias, ovvero gli algoritmi sarebbero addestrati, plagiati in qualche modo, sul gusto dei propri programmatori: manâchild bianchi californiani nel caso delle app occidentali, piegati al gusto orientale per le tante app di filtri e social orientali.
Il caso piĂš recente è quello di FaceApp, unâapp che genera filtri automatici che rendono piĂš belli, piĂš anziani, o invertono il genere. Tantissimi utenti di colore hanno realizzato nelle scorse settimane che il network neuronale dietro i filtri dinamici dellâapp sostanzialmente schiariva la loro faccia e correggeva il loro naso per renderlo piĂš conforme ai canoni di bellezza⌠chiamiamoli cosĂŹ: europei.
#faceapp isn't' just bad it's also racist…? filter=bleach my skin and make my nose your opinion of European. No thanks #uninstalled pic.twitter.com/DM6fMgUhr5
— Terrance AB Johnson (@tweeterrance) April 19, 2017
Ma quello di FaceApp non è un caso unico, o raro. In uno studio pubblicato sulla rivista Science, Joanna Bryson dellâUniversitĂ di Bath sottolinea come non siano gli algoritmi âinnatamenteâ razzisti, ma che si tratti di un fattore di imprinting legato a luoghi comuni del linguaggio e della psiche della societĂ . A livello linguistico, Bryson ha addestrato una macchina a collegare nomi e parole con sensazioni e aree di interesse: il risultato è stato che la macchina ha imparato a collegare nomi femminili allâambito dellâUmanesimo e delle arti, ha imparato ad associare nomi europei e inglesi con parole positive, come âregalo,â e âfelicitĂ ,â e parole negative con nomi afroamericani.
Ad inizio anno, in un report accessibile su SSRN, Sandra Wachter, Brent Mittelstadt, e Luciano Floridi hanno teorizzato la necessitĂ di costruire un âcane da guardiaâ per proteggere le persone da possibile discriminazione da algoritmi.
La ricercatrice di sociologia allâUniversitĂ di New York e opinionista del New York Times Zeynep Tufekci teorizza che ci si stia trovando di fronte non allâinizio dellâintelligenza artificiale, ma a un evento piĂš ampio: uno slittamento verso l’autoritarismo, reso possibile solo grazie a prodotti esattamente come lâEcho Look. Ă il capitalismo della sorveglianza.
Cosa può fare unâintelligenza artificiale con vostre foto a figura intera scattate quotidianamente? Può rivelare i segni di una gravidanza prima che lo scopriate? Può osservare casi di depressione prima che si presentino sintomi fisici? Può misurare lo stato di stress di una persona?
E soprattutto, tutti questi dati che naturalmente unâintelligenza artificiale può interpolare, per quanto tempo rimarranno isolati da datori di lavoro, assicurazioni sanitarie private, lo stato?
Sia chiaro: ciò che rende inevitabile lâimminente ubiquitĂ di infrastrutture per la sorveglianza non è semplicemente la malvagitĂ , o i secondi fini dei governi del mondo, ma quanto sia sempre piĂš evidente che la sorveglianza è a tutti gli effetti la sola valvola di sfogo rimasta, forse lâultima, di sviluppo capitalista della societĂ . La vendita di attenzione e informazione è effettivamente lâunico nuovo mercato di questo secolo, è un mercato che non solo è estremamente proficuo, ma che permette di ottimizzare la performance di tantissime altre attivitĂ circostanti â come la vendita di scarpe su Amazon. La sorveglianza amplifica grandemente i potenziali di mercato di tantissimi servizi â che a tutti gli effetti possono esistere solo grazie a questi modelli di business â gli Stati, in cambio di questa infrastruttura, non stanno attuando politiche di regolazione su queste nuove frontiere, come invece si è fatto su ogni altra industria in precedenza.
E il pubblico, nel frattempo, perde gradualmente il senso di privacy, accettando un compromesso dietro lâaltro in cambio di facilitĂ dâuso e esperienze utente piĂš snelle, nel frattempo rassicurandosi: âno, Donald Trump non vincerĂ le primarie,â âno, non può vincere le elezioni,â âno, non farĂ le cose terribili che aveva detto.â âNo, il Regno Unito non voterĂ per la Brexit,â âno, la Francia non eleggerĂ mai Le Pen.â Lentamente, però, questi governi gradualmente sempre piĂš autoritari si stanno insediando, e lâinfrastruttura per un potenziale fascismo del ventunesimo secolo si fa sempre piĂš efficace.