As tecnologias que se conectam ao nosso cérebro estão chegando a passos largos. Diante dos apetites dos gigantes da tecnologia, pesquisadores defendem a criação de novas proteções para garantir a inviolabilidade do nosso jardim secreto.
11/08/2025 18:04 JérômeE se o seu próximo fone de ouvido pudesse adivinhar o seu humor antes mesmo que você tivesse consciência dele? Melhor ainda: e se ele fosse capaz de influenciá-lo discretamente? Essa perspectiva, que oscila entre o gadget de ficção científica e o pesadelo orwelliano, está no coração de uma revolução silenciosa: a das neurotecnologias. Impulsionadas pelos avanços fulgurantes da inteligência artificial, essas novas tecnologias prometem milagres, especialmente para a medicina. Mas também abrem uma caixa de Pandora com questões éticas vertiginosas.
Pois, se uma máquina pode ler nossos pensamentos, quem nos garante que nossos dados cerebrais permanecerão privados? Esse é o tema central de um estudo realizado pela Escola Politécnica Federal de Lausanne (EPFL), que soa o alarme sobre a necessidade de proteger o que poderíamos chamar de nossa "privacidade mental".
Antes de entrar em pânico, vamos falar das promessas. As neurotecnologias englobam todas essas ferramentas capazes de interagir com nosso sistema nervoso. A mais conhecida é a interface cérebro-computador (ou BCI, de Brain-Computer Interface), um dispositivo que permite ao nosso cérebro dialogar diretamente com uma máquina. Segundo as pesquisas da EPFL, as aplicações médicas são imensas: restaurar a motricidade, as capacidades cognitivas ou a comunicação em pacientes que as perderam. Uma perspectiva animadora.
Mas há um reverso nessa moeda brilhante. Essas mesmas tecnologias poderiam permitir que empresas ou atores mal-intencionados acessassem nossos dados mais íntimos: nossos pensamentos, memórias e emoções. É aí que entra Marcello Ienca, professor da Universidade Técnica de Munique (TUM) e especialista em neuroética, que liderou o projeto "Hybrid Minds" na EPFL entre 2021 e 2024. Para ele, a conclusão é clara: "Os dados neurais revelam nossos estados mentais, cognitivos e emocionais e estão diretamente ligados à nossa essência como indivíduos".
Em outras palavras, não se trata mais de simples dados pessoais como seu endereço ou hábitos de compra. Trata-se do que define "quem somos".
Google I/O 2025: quando a IA organiza sua caixa de e-mail e faz compras
Diante desse novo Faroeste dos dados, uma ideia surgiu. Já em 2017, Marcello Ienca e seus colegas da ETH Zurich propuseram um conceito inédito: os "neurodireitos" (neurorights). A ideia? Considerar a proteção de nossos pensamentos e processos mentais como um direito humano fundamental.
É como se precisássemos atualizar o software de nossos direitos fundamentais. Como destaca o pesquisador, os redatores da Declaração Universal dos Direitos Humanos de 1948 obviamente não anteciparam que uma máquina poderia um dia decodificar uma intenção de voto diretamente na fonte. Os "neurodireitos" visam, portanto, estender as proteções existentes ou criar novas, adaptadas a essa realidade iminente.
A ameaça não está tão distante. As ambições de Elon Musk com sua empresa Neuralink, que pretende implantar chips cerebrais em milhões de pessoas, inclusive para fins não médicos, cristalizam essas preocupações. "Que uma única empresa monopolize o cérebro humano é a coisa mais perigosa para a humanidade", alerta Marcello Ienca.
MCP: e se a IA tivesse encontrado o seu maestro?
Mas o perigo não vem apenas dos implantes cirúrgicos. A verdadeira porta de entrada massiva pode ser muito mais discreta. Sensores EEG (que medem a atividade elétrica do cérebro) não invasivos já começam a ser integrados em objetos do cotidiano, como fones de ouvido ou pulseiras de fitness. Para as empresas, é uma oportunidade de ouro. Como lembra o professor Ienca, "mais dados significam IAs melhor treinadas e algoritmos de previsão mais poderosos". O risco é duplo: vigilância de nossa privacidade mental e a possibilidade de manipulação de nossos desejos e decisões, diretamente na fonte.
Você sabia?
A conscientização está em andamento. Nos Estados Unidos, o estado do Colorado foi o primeiro, em abril passado, a adotar uma lei para proteger os dados neurais da mesma forma que o DNA ou as impressões digitais. A Califórnia seguiu o exemplo. Na Europa, o debate também está sobre a mesa. O Conselho da Europa, que reúne 46 Estados-membros, deve discutir em junho de 2025 uma revisão de sua Convenção 108 sobre proteção de dados, um texto fundador de 1981, para incorporar esses novos desafios.
A corrida, portanto, está lançada. De um lado, uma inovação tecnológica galopante. De outro, uma reflexão jurídica e ética que tenta acompanhar o ritmo. Para Marcello Ienca, a Europa tem um papel a desempenhar ao propor uma "estratégia de equilíbrio": não frear a inovação, mas regulamentá-la por lei para evitar abusos e monopólios. Uma liderança democrática para garantir que essa tecnologia permaneça a serviço da humanidade.
Música IA: um bilhão de reproduções, zero fãs e um prêmio (ilegal?) de 10 milhões de dólares
Enquanto os gigantes da tecnologia já veem nossos cérebros como sua próxima mina de dados, torna-se urgente definir as regras do jogo.
Afinal, a última fronteira talvez não seja o espaço, mas os poucos centímetros que existem entre nossas duas orelhas.
Jerome
Especialista em desenvolvimento web, SEO e inteligência artificial, a minha experiência prática na criação de sistemas automatizados remonta a 2009. Hoje em dia, além de redigir artigos para decifrar a atualidade e os desafios da IA, desenho soluções à medida e intervenho como consultor e formador para uma IA ética, eficiente e responsável.