Le tecnologie che si connettono al nostro cervello stanno arrivando a grandi passi. Di fronte agli appetiti dei giganti della tecnologia, alcuni ricercatori sostengono la creazione di nuove protezioni per garantire l'inviolabilità del nostro giardino segreto.
11/08/2025 17:48 JérômeE se il tuo prossimo paio di cuffie potesse indovinare il tuo umore ancora prima che tu ne sia consapevole? Meglio ancora: e se fosse in grado di influenzarlo discretamente? Questa prospettiva, che oscilla tra il gadget fantascientifico e l'incubo orwelliano, è al centro di una rivoluzione silenziosa: quella delle neurotecnologie. Spinte dai progressi fulminei dell'intelligenza artificiale, queste nuove tecnologie promettono miracoli, specialmente in campo medico. Ma aprono anche un vaso di Pandora con implicazioni etiche vertiginose.
Perché se una macchina può leggere nei nostri pensieri, chi ci garantisce che i nostri dati cerebrali rimarranno privati? È questo il tema di uno studio condotto dal Politecnico federale di Losanna (EPFL), che lancia l'allarme sulla necessità di proteggere quella che potremmo definire la nostra "privacy mentale".
Prima di farsi prendere dal panico, parliamo delle promesse. Le neurotecnologie comprendono tutti quegli strumenti in grado di interagire con il nostro sistema nervoso. La più conosciuta è l'interfaccia cervello-computer (o BCI, per Brain-Computer Interface), quel dispositivo che permette al nostro cervello di dialogare direttamente con una macchina. Secondo le ricerche dell'EPFL, le applicazioni mediche sono immense: ripristinare la motricità, le capacità cognitive o la comunicazione in pazienti che ne sono privati. Una prospettiva entusiasmante.
Ma c'è un rovescio della medaglia. Queste stesse tecnologie potrebbero permettere a imprese o ad attori malintenzionati di accedere ai nostri dati più intimi: pensieri, ricordi, emozioni. È qui che entra in gioco Marcello Ienca, professore all'Università tecnica di Monaco (TUM) ed esperto in neuroetica, che ha guidato il progetto "Hybrid Minds" all'EPFL tra il 2021 e il 2024. Per lui, la conclusione è chiara: "I dati neuronali rivelano i nostri stati mentali, cognitivi ed emotivi e sono direttamente legati alla nostra essenza come individui".
In altre parole, non si tratta più di semplici dati personali come il tuo indirizzo o le tue abitudini di acquisto. Si tratta di ciò che definisce "chi siamo".
Musica IA: un miliardo di ascolti, zero fan e un jackpot (illegale?) da 10 milioni di dollari
Di fronte a questo nuovo Far West dei dati, è nata un'idea. Già nel 2017, Marcello Ienca e i suoi colleghi dell'ETH Zurigo hanno proposto un concetto inedito: i "neurodiritti" (neurorights). L'idea? Considerare la protezione dei nostri pensieri e dei nostri processi mentali come un diritto umano fondamentale.
È un po' come se dovessimo aggiornare il software dei nostri diritti fondamentali. Come sottolinea il ricercatore, gli autori della Dichiarazione universale dei diritti umani del 1948 non avevano ovviamente previsto che un giorno una macchina potesse decodificare un'intenzione di voto direttamente alla fonte. I "neurodiritti" mirano quindi a estendere le protezioni esistenti o a crearne di nuove, adatte a questa realtà imminente.
La minaccia non è così lontana. Le ambizioni di Elon Musk con la sua società Neuralink, che vuole impiantare chip cerebrali in milioni di persone, anche per scopi non medici, cristallizzano queste preoccupazioni. "Che una sola azienda monopolizzi il cervello umano è la cosa più pericolosa per l'umanità", avverte Marcello Ienca.
Limiti dell’IA: e se la corsa alla potenza non bastasse più per renderle davvero intelligenti?
Ma il pericolo non viene solo dagli impianti chirurgici. La vera porta d'ingresso massiccia potrebbe essere molto più discreta. Sensori EEG (che misurano l'attività elettrica del cervello) non invasivi stanno già iniziando a essere integrati in oggetti di uso quotidiano, come cuffie o braccialetti fitness. Per le aziende, è un'occasione d'oro. Come ricorda il professor Ienca, "più dati significano IA meglio addestrate e algoritmi di previsione più potenti". Il rischio è duplice: una sorveglianza della nostra privacy mentale e la possibilità di manipolare i nostri desideri e decisioni, direttamente alla fonte.
Lo sapevi?
La consapevolezza è in crescita. Negli Stati Uniti, lo stato del Colorado è stato il primo, lo scorso aprile, a adottare una legge per proteggere i dati neuronali allo stesso modo del DNA o delle impronte digitali. La California ha seguito l'esempio. In Europa, il dibattito è anch'esso sul tavolo. Il Consiglio d'Europa, che riunisce 46 Stati membri, dovrà discutere a giugno 2025 di una revisione della sua Convenzione 108 sulla protezione dei dati, un testo fondatore del 1981, per includere queste nuove sfide.
La corsa è quindi iniziata. Da un lato, un'innovazione tecnologica galoppante. Dall'altro, una riflessione giuridica ed etica che cerca di tenere il passo. Per Marcello Ienca, l'Europa ha un ruolo da giocare proponendo una "strategia di equilibrio": non frenare l'innovazione, ma regolamentarla con leggi per evitare abusi e monopoli. Una leadership democratica per assicurarsi che questa tecnologia rimanga al servizio dell'uomo.
Google ha visto la luce (e ve la mostra): Project Astra, l’IA che vuole diventare i vostri occhi
Mentre i giganti della tech vedono già i nostri cervelli come la loro prossima miniera di dati, diventa urgente definire le regole del gioco.
Dopotutto, l'ultima frontiera forse non è lo spazio, ma quei pochi centimetri che si trovano tra le nostre due orecchie.
Jerome
Esperto in sviluppo web, SEO e intelligenza artificiale, la mia esperienza pratica nella creazione di sistemi automatizzati risale al 2009. Oggi, oltre a redigere articoli per decifrare l'attualità e le sfide dell'IA, progetto soluzioni su misura e intervengo come consulente e formatore per un'IA etica, efficiente e responsabile.