“Ciò che avviene nel tuo iPhone, resta nel tuo iPhone”, promettono i giganteschi manifesti che inneggiano alla privacy disseminati in tutte le grandi metropoli del mondo. “Resta nel tuo iPhone” a meno che – per dire – Apple non decida all’improvviso di fare una totale inversione di marcia e rendere ogni suo singolo smartphone (per ora solo negli Stati Uniti) soggetto a sorveglianza, tradendo la promessa fatta a tutti i suoi utenti e smentendo clamorosamente la fama costruita negli anni di società attenta alla privacy (al punto da battagliare direttamente con l’Fbi).

Nei giorni scorsi è stato infatti rivelato come tutte le immagini salvate su iCloud saranno scansionate a caccia di materiale pedopornografico, che Siri e gli altri strumenti di ricerca nativi di Apple avviseranno gli utenti nel caso in cui stiano compiendo ricerche illegali e che, infine, Apple notificherà i genitori qualora i figli minorenni ricevano su iMessage foto di nudo (che verranno oscurate e potranno essere aperte solo dopo aver dato esplicito consenso).

Potete trovare più dettagli sulla pagina ufficiale di Apple dedicata a queste nuove misure, ma una cosa è certa: negli Stati Uniti, gli iPhone stanno per diventare soggetti a una sorveglianza totale, in cui tutto ciò che è contenuto nella gallery delle nostre fotografie viene costantemente controllato per assicurarsi che non ci sia nulla di pedopornografico. Che cosa c’è di male nella decisione di Apple? Perché dovremmo temere queste misure anche se “non abbiamo niente da nascondere”? Prima di arrivare ai punti critici, facciamo un passo indietro e vediamo come funziona questo sistema di scansione delle immagini.

A differenza di quanto si potrebbe pensare, Apple non userà un classico strumento di machine learning, ovvero un software di intelligenza artificiale in grado di distinguere – dopo essere stato addestrato su migliaia di fotografie pedopornografiche – a riconoscere immagini di questo tipo. Per due ragioni: la prima è che ciò che avrebbe significato fare incetta delle nostre immagini e osservarle in chiaro. La seconda è che questi strumenti commettono una tale quantità di errori – come sa chi è finito arrestato a causa di un errore del riconoscimento facciale –  che il rischio è di far trovare la polizia alle porte di parecchi cittadini innocenti.

Questo sistema funziona invece tramite un sistema noto come NeuralHash. Per farla semplice, l’iPhone leggerà soltanto l’hash (pensate a una sorta di impronta digitale) di ogni singola foto e le confronterà con l’hash delle immagini pedopornografiche contenute nel database dell’istituto statunitense che si occupa di combattere lo sfruttamento sessuale dei minori (e che collabora con le forze dell’ordine). Questo significa che Apple non guarderà le nostre foto, ma il loro hash, e che sarà in grado di individuare solo se nel vostro iPhone sono presenti immagini già contenute nel database, di conseguenza non dovete affrettarvi a nascondere le foto in costume del vostro nipotino. In più, i provvedimenti scatteranno solo dopo il superamento di una certa soglia di sicurezza (perciò non alla prima foto sospetta individuata).

Tutto a posto, quindi? Non proprio. E non solo perché, in ogni caso, si tratta di una clamorosa invasione della privacy, ma perché il rischio che ci siano falsi positivi (in cui quindi un’immagine innocua viene confusa per materiale illecito) è comunque presente. Ogni volta che sistemi di qualche tipo sono stati impiegati – da Tumblr, da Facebook, da Instagram – hanno sempre portato a gravi errori, magari classificando come materiale pedopornografico delle immagini di Putti (i bambini nudi dell’arte classica e rinascimentale). Il sistema usato in questo caso è diverso, ciò però non significa che sia completamente esente da errori (a quel punto, dovremo confidare nella saggezza dei revisori umani e della polizia per evitare, come già avvenuto in passato, arresti ingiustificati).

C’è però un rischio, se possibile, ancora superiore. E se Apple decidesse di ampliare le funzioni di questo sistema, per esempio, alle immagini terroristiche? E chi decide cosa è o non è un’immagine terroristica? E se foste un giornalista che si occupa di questi temi e conserva sul telefono materiale utile a livello professionale? Una simile conversione degli obiettivi è già avvenuta in passato e apre anche le porte alla possibilità che governi autoritari o scarsamente democratici facciano pressione su Apple affinché estenda ulteriormente gli scopi del suo sistema NeuralHash, per esempio per identificare meme di protesta politica o video e fotografie che documentano violenze da parte delle forze dell’ordine.

Una volta aperto il vaso di Pandora, chiuderlo è molto difficile. Ed è proprio per questa ragione che, fino a oggi, Apple aveva strenuamente difeso la sua decisione di proteggere la privacy senza fare nessuna eccezione. Proprio perché consapevole del fatto che, caduta una prima tessera, evitare l’effetto domino è difficilissimo. Come segnala la Electronic Frontier Foundation, quello messo in piedi da Apple “non è nemmeno un tappeto scivoloso, è un sistema che aspetta solo che ci sia sufficiente pressione esterna per essere modificato”.

Apple può adoperarsi a elargire tutte le rassicurazioni possibili, ma una sola cosa è certa: la backdoor (ovvero la porta d’ingresso a esterni inserita in un dispositivo privato) può avere scopi circoscritti ed essere progettata con tutte le cautele possibili, ma è comunque una backdoor che non aspetta altro di essere sfruttata a nuovi scopi.

Lo stesso ragionamento vale per le novità che riguardano Siri e gli altri strumenti di ricerca nativi degli iPhone, Mac e iPad. Come spiega Fast Company, “se gli utenti cercano immagini sessuali di bambini o altri materiale collegato, Siri e gli strumenti di ricerca incorporati notificheranno che ciò che stanno cercando è illegale”. Che certezza abbiamo, di nuovo, che strumenti di questo tipo non verranno ampliati? Che la Russia, l’Ungheria o l’India non faranno pressioni su Apple per fare sì che vengano notificate anche le ricerche su manifestazioni o sabotaggi? La ragione per cui la difesa della privacy non dovrebbe ammettere eccezioni è sempre la stessa: una volta aperto uno spiraglio, è difficile evitare che si spalanchi la porta. 

Ha invece suscitato meno polemiche lo strumento che permette ai genitori di ricevere una notifica se i figli minorenni inviano o sono i destinatari di fotografie di nudità (individuate con il fallace machine learning). Lo scopo, ovviamente, è quello di proteggere i bambini dai predatori. Il problema è che ciò aumenta a dismisura il controllo dei genitori su minorenni e, soprattutto, dà per scontato che ogni genitore sia una persona equilibrata e comprensiva.

E se la ragazza o il ragazzo in età adolescenziale ricevesse foto di nudità da parte di una fidanzata o un fidanzato? O più semplicemente si scambiasse foto esplicite con gli amici? E se le persone in questione non fossero eterosessuali e si trovassero costrette a fare coming out contro la loro stessa volontà? È necessario segnalare come il controllo da parte dei genitori varrà solo per i minori di 13 anni, ma in ogni caso è davvero una società privata che può decidere quanto potere dare a genitori magari estremamente conservatori o abusivi?

Infine, è inutile negare quanto tutto ciò rischi di rivelarsi inutile. Dopo la pubblicità mondiale che è stata fatti a questi strumenti, non sarà così difficile per i pedofili spostare da iCloud il materiale di cui sono in possesso, non sarà difficile usare strumenti di ricerca che non siano Siri e non sarà difficile inviare messaggi con Whatsapp invece che iMessage. È improbabile che gli strumenti varati da Apple diventino qualcosa di più che un modo per mostrarsi ben intenzionati e far vedere che “Apple pensa ai bambini”. Nel frattempo, però, tutte le persone soggette a questi strumenti diventano presunti colpevoli che devono essere sottoposti a sorveglianza senza che nemmeno ci sia il più piccolo indizio di colpevolezza nei loro confronti. Un rovesciamento dei diritti fondamentali.

Con tutte le precauzioni che pure avrà preso, è inutile negare quanto avvenuto: Apple ha rinnegato la sua storia e ha deciso di varcare il Rubicone. Da qui in avanti, difendere la privacy da ingerenze indebite sarà ancora più difficile.

The post Perché la scelta di Apple sulla pedopornografia è completamente sbagliata appeared first on Wired.



Leggi l’articolo su wired.it