Digital Human Brain Covered with Networks

Esisterebbe la privacy se i pensieri fossero leggibili? Evidentemente no. Allora diventa importante riflettere sulla portata delle tecniche di “lettura del cervello” che la scienza ci offre. In occasione della giornata europea della privacy, il Garante italiano ha voluto convocare esperti e studiosi per interrogarsi sulla protezione dei dati trattati dalle neuroscienze e impiegati dalle intelligenze artificiali.

Oggi infatti sono già realtà progetti per l’installazione cerebrale di microchip pensati per contenere gli effetti di malattie neurodegenerative, potenziare le percezioni, salvare i ricordi, amplificandoli o cancellandoli selettivamente. La risonanza magnetica funzionale può già decodificare diversi tipi di segnali cerebrali, e domani forse potremo leggere i pensieri e influenzare stati mentali e comportamenti, agendo direttamente sulla sfera neuropsicologica. Ma, citando una frase cara a Stefano Rodotà, per il Garante “non tutto ciò che è tecnicamente possibile è giuridicamente lecito ed eticamente ammissibile”.

Se infatti qualcuno può leggerci il cervello potranno ancora esistere il diritto alla difesa, il diritto all’oblio, il diritto al silenzio? E la libertà del voto, la libertà confessionale, il pluralismo informativo? Evidentemente no, visto che dalla segretezza della nostra sfera cognitiva dipende ogni altra libertà. Perciò la domanda è: che succede quando questa sfera viene invasa dalle neurotecnologie? Come possiamo rimanere padroni dei dati prodotti dalla nostra attività cerebrale?

Per il presidente dell’Autorità, il professore Pasquale Stanzione, come l’habeas corpus è stato il fondamento dello stato di diritto e l’habeas data il fondamento della nozione moderna di privacy, l’habeas mentem potrebbe diventare il fondamento della libertà individuale e dei diritti connessi alla persona in un mondo di macchine che ci leggono il cervello.

L’habeas mentem inteso come base dei neurodiritti necessari a evitare una deriva neurodeterministica, per delineare uno statuto giuridico e etico in base al quale coniugare l’innovazione tecnologica con la dignità della persona. Con la difesa dell’io sovrano, che è il presupposto di ogni altro diritto e libertà. Il rischio è, secondo Stanzione, che innovazioni preziose per la cura delle malattie trasformino l’uomo in una ‘non persona’, un soggetto da addestrare, normalizzare o escludere.

Il progetto di Elon Musk

L’esempio centrale della sua colta dissertazione è il Neuralink di Elon Musk. Un dispositivo che, infilato nel cervello dei maiali, e domani in quello umano, è in grado di leggerlo per individuare eventuali patologie. E se venisse usato con scopi diversi? Con le tecnologie di brain-reading si possono sfruttare a fini commerciali le informazioni umane e con l’interpretazione semantica potrebbero diventare un vero e proprio “serio della verità”.

Il rischio, secondo Stanzione, è che le finalità di potenziamento cognitivo delle attuali interfacce cervello-macchina che consentono di amplificare capacità ‘transumane’ come il controllo a distanza di oggetti per i paraplegici, se venissero usate fuori del contesto clinico potrebbero renderci schiavi. Si pensi a Facebook e al neuromarketing. Dalla persuasione basata sulla profilazione, l’aumento della capacità predittiva delle piattaforme passerebbe dalla suggestione alla soggezione, fino alla schiavitù. Il rischio non è solo l’hackeraggio del cervello. Le neurotecnologie implicano una congiunzione tra neuroscienze e capitalismo digitale – il neurocapitalismo – che ha risvolti potenzialmente dirompenti sulla vita individuale e collettiva.

Tra tecnologia e diritti

A dispetto di chi ancora crede nella neutralità della scienza e della tecnica uno dei panelist del convegno, il professore padre Paolo Benanti, ha sillabato a chiare lettere che “ogni artefatto tecnologico è un dispositivo di potere. Ogni artefatto tecnologico invera o nega diritti riconosciuti”. Per farsi capire meglio ha fatto l’esempio della raccoglitrice meccanica di pomodori, che in California determinò il passaggio da 3.000 coltivatori di pomodori a pochi soggetti monopolisti. Col risultato di deprimere il mercato del lavoro, spesso senza garanzie, dei raccoglitori che attraverso di esso ambivano alla cittadinanza, come pure dei piccoli proprietari che non potevano permettersela e che persero la sfida della concorrenza.

Benanti perciò ha voluto ricordare che le neurotecnologie sono capillari nella società grazie ai farmaci e che al contrario di quelle elettroniche sono immediatamente disponibili a tutti, con conseguenze che non sempre capiamo o vogliamo. Però oggi che “la vita prima di farsi storia si fa dati” gli algoritmi possono “clusterizzare” le persone rendendo manipolabile da altri il loro comportamento.
Benanti ha detto che oggi esistono applicativi per migliorare la capacità cognitiva dei giovani, favorire una socialità piena e soddisfacente, proteggersi dal cyberbullismo, ma che potrebbero ritorcerglisi contro. Che fare allora? Ecco la sua proposta: “Dopo avere usato macchine algoritmiche e raccolto dati così privatamente intimi, quei dati andrebbero cancellati, e lo stesso dovrebbe valere per le ‘facoltà cognitive’ delle intelligenze artificiali addestrate con quei dati”. “Tutti gli oggetti di consumo trasmettono dati, quindi la domanda è: come li usiamo? Come li etichettiamo? Come li controlliamo?” Dobbiamo deciderlo, altrimenti, dice Benanti, “cosa resta di libertà, consapevolezza e dignità umana?

Il dato neurale

Per il ricercatore del Politecnico di Zurigo, Marcello Ienca, “probabilmente non si è capita l’importanza del dato neurale come correlato delle facoltà mentali e delle sue implicazioni in termini di autopercezione e identità soggettiva”. Ma anche l’importanza epistemologica del dato neurale, che ha carattere predittivo, ad esempio per un assicuratore o datore di lavoro. Il dato neurale insomma, anche quando è un ‘semplice’ marcatore biologico che non dice nulla sul contenuto semantico del pensiero dice molto sullo stato di salute della persona.

Ed ha una grandissima importanza metodologica: “Il dato neurale non è in sola lettura, perché è un dato riscrivibile attraverso la neurostimolazione e la neuromanipolazione delle interfacce ibride cervello-computer”. È stato scoperto come una persona possa cambiare gusti musicali dopo stimolazione cerebrale: e se accadesse col credo politico? Perciò, secondo il ricercatore, se la ‘neuroprivacy’ è la privacy del dato neurale, la privacy mentale è inerente invece agli stati mentali dell’individuo, quelli che Facebook sfrutta nelle dinamiche di contagio emozionale.

E se il discorso vi sembra troppo astratto basti pensare al caso dell’utilizzo del neuro-monitoraggio nelle scuole cinesi raccontato in un servizio televisivo del Tg1. In sintesi gli alunni vestono un copricapo neurale che misura l’attività cognitiva cerebrale per misurare attenzione e apprendimento: una scuola a zero privacy che diventa un laboratorio disciplinare. Come nel caso dei dispositivi di neuro-monitoraggio usati sempre in Cina per calibrare i flussi di produzione delle centrali nucleari.

E se questi dispositivi venissero hackerati? Hackerare l’interfaccia cervello-computer è un fenomeno già riscontrato tra esperti di cybersecurity. E tuttavia, come ha ricordato durante l’incontro il filosofo Giacomo Marramao che ha posto il tema dell’identità contro ogni riduzionismo biologico e scientifico “le nuove tecnologie possono essere usate non per addomesticare gli uomini come vorrebbero i potenti, ma per collaborare col pianeta e sviluppare la qualità della relazione con esso”, mentre secondo il giurista Oreste Pollicino, “potrebbe non essere necessario immaginare nuovi neurodiritti, ma usare i ‘vecchi cataloghi’ che forniscono tutele ai diritti che cominciano a essere inflazionati, ricordando che le Carte dei diritti non portano solo bilanciamento ma anche conflitto”. Un conflitto che però è già incominciato.

The post Perché è il momento di parlare di neuro-privacy appeared first on Wired.



Leggi l’articolo su wired.it