07 Dezembro 2017
Vinte e sete pesquisadores de neurociências e inteligência artificial (IA) lançaram na Nature um apelo que evidencia importantes críticas relacionadas ao promissor futuro das tecnologias capazes de decodificar os processos mentais para produzir próteses bioartificiais, para potencializar capacidades humanas físicas e mental, para criar redes de comunicação e de cálculo conectando diretamente os circuitos cerebrais dos indivíduos.
A reportagem é de Giovanni Del Missier, publicada no sítio Il Regno, 04-12-2017. A tradução é de Moisés Sbardelotto.
Embora as Brain-computer interface technologies (BCIT) estejam atualmente apenas em uma fase muito inicial de desenvolvimento, principalmente concentradas em finalidades terapêuticas, já se compreende que as imensas potencialidades envolvem graves perigos para a igualdade social, a privacidade e a liberdade de pensamento, a autonomia individual, a compreensão de si mesmo como corporeidade viva e a consciência de estar na origem das próprias ações.
Por isso, os instrumentos éticos e jurídicos disponíveis são julgados como insuficientes diante da possibilidade de decodificar os processos mentais das pessoas e manipular as suas emoções, intenções e decisões.
E a prova de que não se trata apenas de previsões visionárias é o fato de que importantes empresas privadas e agências federais estadunidenses estão investindo enormes capitais em vista das aplicações comerciais, militares e de controle social. Por isso, pede-se que os governos criem órgãos e oportunidades de debate ético entre os diversos componentes religiosos, étnicos e culturais para determinar as diretrizes éticas compartilhadas e regulamentos normativos eficazes.
As questões levantadas dizem respeito à confidencialidade e ao consentimento, já que se prevê a possibilidade de monitorar comportamentos, obtendo informações sensíveis a partir deles, para utilizá-las sem o conhecimento do interessado ou para manipular a sua experiência mental.
A proteção de dados neurais deveria ser assegurada no mais alto grau com normativas semelhantes às que proíbem a venda de órgãos humanos, porque o seu uso poderia comprometer a identidade individual e os processos da democracia.
O uso das BCITs também poderia afetar gravemente a capacidade de agir com responsabilidade, até minar o sentido da corporeidade e a consciência de si, através de um máximo condicionamento cognitivo e emocional dificilmente previsível.
Isso poderia exigir a definição de “neurodireitos” a serem inseridos na Declaração Universal e nas Convenções Internacionais para a proteção da integridade pessoal.
Além disso, levanta-se a questão do enhancement, ou seja, a possibilidade de amplificar as capacidades mentais de soldados, espiões e analistas, levantando a perspectiva da necessidade de definir, já agora, rigorosos limites, como ocorreu para o editing genético ou para o uso das armas químicas e atômicas, sabendo muito bem que moratórias e tratados poderiam ser também insuficientes para impedir o seu uso militar.
Por fim, a elaboração de sofisticados algoritmos para a elaboração de uma enorme quantidade de dados poderia veicular preconceitos dos programadores, voltados a privilegiar determinados grupos e prejudicar outros.
Tudo isso requer um excedente de sensibilidade moral: a informação da opinião pública mundial, a intervenção dos governos nacionais e dos órgãos internacionais. Mas também investe de responsabilidades particulares aqueles que estão na vanguarda da inovação. Financiadores, pesquisadores, engenheiros devem ser formados eticamente não só para orientar esses instrumentos para o “bom uso”, mas também para conseguirem dotar as tecnologias de “sistemas éticos de autocontrole”, para que o mundo que elas contribuirão para moldar não seja hostil à espécie humana.
O fato de que isso seja dito por cientistas diretamente envolvidos na pesquisa indica o alto grau de consciência ética que os anima, mas também é um desafio à bioética teológica, para que explore esse campo com coragem, ampliando os seus horizontes nos termos de uma “ecologia humana integral”, como proposto com clarividência na encíclica Laudato si’.
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
Neurotecnologias: o alerta ético dos cientistas - Instituto Humanitas Unisinos - IHU