Pensar a IA eticamente é refletir sobre o tipo de humanidade que queremos construir para o futuro. Entrevista especial com Steven S. Gouveia

Mudança epocal promovida pela Inteligência Artificial e seus usos deve ser balizada por critérios éticos, inseparáveis da Filosofia; contra a captura pela lógica da eficiência, inovação e lucro, a aplicação das tecnologias necessita de responsabilidade moral

Imagem gerada por meio do ChatGPT

Por: Márcia Junges | 25 Abril 2025

“Uma IA verdadeiramente transformadora – ética, autônoma e sensível ao contexto – exigirá muito mais do que algoritmos eficientes: exigirá um diálogo genuíno entre neurociência, filosofia da mente e ciência da computação. O cérebro humano, em sua complexidade dinâmica, nos convida a pensar a inteligência não apenas como processamento de informação, mas como processo vivido”. A afirmação é do filósofo português Steven S. Gouveia na entrevista a seguir, concedida por e-mail ao Instituto Humanitas Unisinos – IHU.

Para o pesquisador, a filosofia, e em particular a ética, tem um papel absolutamente central no debate sobre Inteligência Artificial: “não como um acessório posterior ao desenvolvimento técnico, mas como uma infraestrutura conceitual e normativa que deve orientar desde o início o modo como concebemos, projetamos e aplicamos essas tecnologias. Em primeiro lugar, a ética filosófica oferece as ferramentas necessárias para avaliar não apenas o que é possível fazer com a IA, mas o que é desejável. Essa distinção é fundamental. Em um cenário cada vez mais dominado pela lógica da eficiência, da inovação e do lucro, a ética entra como um campo de reflexão crítica que nos convida a pensar sobre as consequências morais, sociais e políticas do uso da IA”.

Analisando o emprego de IA no contexto bélico, como o que Israel tem feito contra a Faixa de Gaza através de softwares como o Lavender, Gouveia sustenta que existem “limites morais que não podem ser delegados a máquinas”, sob pena de que a tecnologia de guerra se converta em tecnologia da indiferença: “A decisão de tirar uma vida, por mais que ocorra num cenário de guerra, é uma decisão profundamente humana, carregada de responsabilidade moral, e não deve ser terceirizada a algoritmos – especialmente aqueles que operam como verdadeiras ‘caixas-pretas’, sem transparência nem possibilidade de escrutínio ético”. Por essa razão, filósofos, juristas e cidadãos conscientes não só podem, como devem intervir no debate, protagonizando-o. Nascida de um contexto interdisciplinar, a IA promove não somente uma revolução técnica em nossas vidas, mas uma mutação cultural, política e filosófica, e isso demanda “novas formas de reflexão crítica e uma renovada responsabilidade ética. A IA de hoje não apenas simula aspectos da inteligência humana; ela transforma as condições sob as quais vivemos, tomamos decisões e interagimos social e politicamente”.

Steven S. Gouveia (Foto: Arquivo pessoal)

Steven S. Gouveia é doutor em Neurofilosofia (2021) pela Universidade do Minho (Portugal). Foi pesquisador visitante na Minds, Brain Imaging and Neuroethics Unit no Royal Institute of Mental Health, da Universidade de Ottawa, Canadá, em 2017 e 2019, sob a supervisão de Georg Northoff. É pesquisador em um projeto sobre Ética da Inteligência Artificial em Medicina no Grupo Mente, Linguagem e Ação do Instituto de Filosofia da Universidade do Porto, em parceria com as universidades de Yale, Exeter e Helsinque. Em 2023, foi nomeado Professor Honorário da Faculdade de Medicina Andrés Bello, no Chile, juntamente com o Prêmio Nobel Sir Roger Penrose. Junto de D. Chalmers, S. Blackmore, R. Penrose, N. Humphrey, A. Seth, K. Friston, J. LeDoux e C. Koch publicou The odyssey of the mind: dialogues on the brain and consciousness (Amazon, 2024). Em 02-04-2025, ministrou a Aula Inaugural da Filosofia Unisinos, intitulada Filosofia e Inteligência Artificial.

Em 03-04-2025 e 04-04-2025 ofereceu o minicurso Ética da Inteligência Artificial no Departamento de Filosofia Unisinos. Mais informações: https://stevensgouveia.weebly.com/

Confira a entrevista.

IHU – Pode recuperar o contexto de surgimento da IA e suas aplicações nessa ocasião?

Steven S. Gouveia – O aparecimento da Inteligência Artificial (IA) surge no contexto pós-Segunda Guerra Mundial, marcado por avanços significativos na computação e por uma atmosfera intelectual de entusiasmo em torno da ideia de que a mente humana poderia ser simulada por máquinas. Um dos marcos iniciais mais simbólicos foi a famosa conferência de Dartmouth, em 1956, considerada o ponto de partida oficial da IA como campo de estudo. Nessa ocasião, pesquisadores como John McCarthy, Marvin Minsky, Nathaniel Rochester e Claude Shannon reuniram-se com a ambição de explorar a hipótese de que “todo aspecto do aprendizado ou qualquer outra característica da inteligência pode, em princípio, ser descrito de forma tão precisa que uma máquina pode ser feita para simulá-lo”.

Nesse período inicial, as aplicações da IA estavam fortemente ligadas à lógica simbólica, à resolução de problemas matemáticos e à simulação de comportamentos racionais. A IA era vista como a tentativa de replicar processos cognitivos humanos por meio de regras explícitas e manipulação simbólica. Os sistemas desenvolvidos tinham aplicações bastante restritas, como jogos (por exemplo, o xadrez), teoremas matemáticos e problemas lógicos bem definidos. Ainda assim, esses projetos inauguraram debates fundamentais sobre a possibilidade de consciência artificial, os limites computacionais da mente humana e os desafios éticos de delegar decisões a máquinas – temas que permanecem centrais até hoje.

Portanto, a IA nasce de um contexto interdisciplinar, envolvendo não apenas a ciência da computação, mas também a filosofia da mente, a psicologia cognitiva, a linguística e a matemática. Esse caráter híbrido continua sendo uma de suas maiores forças e, ao mesmo tempo, um de seus maiores desafios filosóficos.

IHU – Dessa época para os nossos dias, o que mais mudou no uso da IA e nos impactos sociais que estão ligados a esse fenômeno?

Steven S. Gouveia – Desde os primeiros anos da IA, marcados por sistemas simbólicos e algoritmos lógicos, houve uma transformação radical tanto nas capacidades técnicas da IA quanto nos seus impactos sociais: talvez a mudança mais significativa tenha sido a transição do paradigma simbólico para o paradigma conexionista, especialmente com o advento e o desenvolvimento das redes neurais profundas a partir da década de 2010 (embora a teoria por detrás desse avanço seja da década de 70, que teve como consequência a atribuição do Prêmio Nobel da Física de 2024 a John J. Hopfield). Hoje, modelos de aprendizado de máquina – particularmente o deep learning – conseguem realizar tarefas como reconhecimento de imagem, processamento de linguagem natural e tomada de decisão com níveis de eficiência muitas vezes superiores aos humanos, em contextos muitos variados (e.g., medicina).

Essa evolução técnica expandiu enormemente o leque de aplicações da IA: ela está presente em áreas tão diversas quanto a saúde, o transporte, a educação, o sistema judicial, a vigilância, o marketing e as artes e até a intimidade humana. Mas o que talvez seja mais importante do ponto de vista filosófico e ético é o alcance social e político dessas aplicações: a IA deixou de ser uma curiosidade científica para se tornar uma força transformadora da vida humana, impactando diretamente as relações de poder, as formas de trabalho, a privacidade e até mesmo os critérios de justiça social. Além disso, o uso massivo de dados – o chamado big data – e a opacidade dos algoritmos contemporâneos colocam novos desafios éticos: como garantir transparência e responsabilização em decisões automatizadas? Como evitar a reprodução de preconceitos históricos nos dados que alimentam esses sistemas? Como preservar a dignidade humana em um cenário de crescente automação e vigilância? Assim, a mudança não é apenas técnica: estamos diante de uma mutação cultural, política e filosófica, que exige novas formas de reflexão crítica e uma renovada responsabilidade ética. A IA de hoje não apenas simula aspectos da inteligência humana; ela transforma as condições sob as quais vivemos, tomamos decisões e interagimos social e politicamente.

IHU – Sob que aspectos a IA é consciente? O que isto significa exatamente?

Steven S. Gouveia – Essa é uma das perguntas mais provocadoras e, ao mesmo tempo, mais mal compreendidas no debate contemporâneo sobre Inteligência Artificial. A resposta direta é: atualmente, nenhuma forma de IA é consciente no sentido pleno do termo. Quando falamos de “consciência”, sobretudo no âmbito da filosofia da mente, estamos nos referindo à experiência subjetiva – aquilo que Thomas Nagel chamou de o que é ser um determinado ser. Em outras palavras, a consciência envolve sensação, intencionalidade, experiência qualia e uma perspectiva em primeira pessoa sobre o mundo. Segundo uma pesquisa que desenvolvi com o meu anterior orientador de doutoramento, o Prof. Dr. Georg Northoff, neurocientista da Universidade de Ottawa, se olharmos para como é que a consciência acontece no cérebro humano, nenhuma das IAs atuais, mesmo as mais sofisticadas, como os grandes modelos de linguagem, conseguem reproduzir esses aspectos relevantes da consciência. Elas processam dados, identificam padrões e geram respostas baseadas em estatísticas e correlações, mas não têm experiência de mundo, não têm desejos, não sentem dor nem prazer, e tampouco possuem autoconsciência ou entendimento do que fazem determinado contexto.

As IAs atuais podem simular linguagem consciente, sim, mas tal não equivale a ser consciente: é preciso algo mais. Dito isso, há um aspecto interessante a considerar: o fato de que máquinas consigam simular consciência de forma convincente já traz implicações éticas e sociais importantes (como retratam várias obras cinematográficas). Se um sistema interage como se fosse consciente, isso pode afetar nossa forma de tratá-lo, de projetar responsabilidades e até de moldar as relações humanas. Isso é particularmente relevante em contextos como o cuidado com idosos, a educação de crianças ou a aplicação da IA em decisões judiciais e médicas. Portanto, é fundamental distinguir entre consciência funcional – ou seja, a aparência de comportamento consciente – e consciência fenomenal – a experiência interna real. A filosofia da mente tem muito a contribuir nesse debate, ajudando a evitar tanto os exageros “tecnofílicos” quanto os alarmismos infundados. A questão da consciência artificial é, acima de tudo, um convite à reflexão crítica sobre o que significa ser consciente no século XXI e de que forma é que a tecnologia poderá mudar os nossos conceitos mentalistas e a suas consequentes aplicações.

IHU – Se a IA é consciente e, portanto, independente, ela pode ser considerada um agente moral? Por quê?

Steven S. Gouveia – Essa pergunta toca num dos dilemas centrais da ética contemporânea da tecnologia. Para que algo – ou alguém – seja considerado um agente moral, é necessário que possua, ao menos, três características fundamentais: (1) consciência, no sentido fenomenológico de ter experiências subjetivas; (2) intencionalidade, ou seja, a capacidade de agir com base em razões próprias; e (3) responsabilidade, isto é, ser capaz de compreender normas morais e responder por suas ações. Como disse anteriormente, as IAs atuais não possuem consciência no sentido pleno, tampouco intenções próprias: elas operam com base em estruturas computacionais que respondem a estímulos e instruções, sem compreender verdadeiramente o conteúdo das decisões que executam. Portanto, por mais autônoma que uma IA possa parecer funcionalmente – como ao tomar decisões sem supervisão humana direta – isso não equivale a independência moral ou consciência subjetiva. Ela pode agir como se fosse um agente, mas isso não significa que seja um agente moral. No entanto, essa discussão não é meramente especulativa. Mesmo que IAs não sejam agentes morais, elas já participam de contextos morais: elas tomam decisões que afetam vidas humanas. Isso levanta uma questão filosoficamente rica e urgentemente prática: se a IA não é um agente moral, então quem é responsável pelas suas ações? Os programadores? As empresas? Os usuários? É aqui que avancei com a noção de responsabilidade distribuída: precisamos repensar nossos modelos clássicos de agência moral para lidar com sistemas que não são sujeitos morais, mas que têm efeitos morais profundos. E mais: se um dia desenvolvêssemos uma IA verdadeiramente consciente – algo ainda hipotético –, então sim, poderíamos começar a discutir se ela deveria ter status moral, talvez semelhante ao de animais conscientes ou mesmo de seres humanos. Mas, até lá, nosso foco ético deve continuar sendo a responsabilidade humana na criação, implementação e supervisão desses sistemas.

IHU – Quais as lições que o cérebro humano oferece à IA?

Steven S. Gouveia – Essa é uma pergunta central no artigo que escrevi em coautoria com o neurofilósofo Georg Northoff em 2024. No texto, defendemos que o cérebro humano não deve ser apenas uma fonte de inspiração para a IA, mas também uma estrutura de referência filosófico-epistemológica para compreender o que realmente significa inteligência. A principal tese que desenvolvemos é que os sistemas de IA atuais operam com base em modelos externos de correlação estatística, enquanto o cérebro humano funciona por meio de uma integração dinâmica entre atividade neural espontânea, tempo subjetivo e contexto corporal e ambiental. Ou seja, enquanto a IA lida com dados fora do sistema, o cérebro se organiza a partir de um fluxo interno contínuo de atividade – algo que se denomina de resting state activity – que molda a maneira como os estímulos são percebidos, interpretados e integrados.

Uma das grandes lições do cérebro para a IA, portanto, é a necessidade de contextualidade temporal e corporal. No artigo, mostramos que a inteligência humana é essencialmente encarnada e situada: ela não ocorre no vazio, mas é profundamente moldada por fatores afetivos, sensoriais e temporais. A IA, ao negligenciar essas dimensões, tende a operar de forma descontextualizada, o que limita sua capacidade de generalização e sua relevância ética e fenomenológica. Além disso, propomos que a IA poderia se beneficiar de um entendimento mais profundo da circularidade entre cérebro, corpo e mundo. Em vez de buscar replicar apenas os outputs cognitivos (como linguagem ou reconhecimento de padrões), deveríamos investigar como o cérebro se constitui enquanto sistema auto-organizado e orientado por valores internos, afetos e ritmo temporal. Isso implica um deslocamento epistemológico: não basta “imitar” a mente; é preciso compreender suas condições estruturais e fenomenológicas.

Concluímos no artigo que uma IA verdadeiramente transformadora – ética, autônoma e sensível ao contexto – exigirá muito mais do que algoritmos eficientes: exigirá um diálogo genuíno entre neurociência, filosofia da mente e ciência da computação. O cérebro humano, em sua complexidade dinâmica, nos convida a pensar a inteligência não apenas como processamento de informação, mas como processo vivido.

IHU – Quais são os principais objetivos com o seu projeto em curso sobre ética da IA? O que já foi descoberto e em que sentido esse projeto ajuda a avançar no conhecimento das intersecções entre Filosofia e Inteligência Artificial?

Steven S. Gouveia – O projeto rTAIM, financiado pela Fundação para a Ciência e a Tecnologia (FCT) de Portugal, tem como objetivo principal investigar como a aplicação de sistemas de Inteligência Artificial na medicina – especialmente aqueles baseados em modelos de aprendizado profundo, frequentemente descritos como “caixas-pretas” – impacta princípios normativos fundamentais, como autonomia, responsabilidade, explicabilidade e confiança no processo de tomada de decisão clínica. Ao longo de seis anos (2023-2029), o projeto busca:

(i) Analisar criticamente os desafios éticos que emergem da integração de sistemas de IA em contextos médicos, destacando como a opacidade desses sistemas pode comprometer a relação de confiança entre médicos e pacientes;

(ii) Propor soluções normativas para mitigar os riscos associados à “medicina de caixa-preta”, promovendo práticas que assegurem a transparência e a explicabilidade das decisões algorítmicas;

(iii) Fomentar o diálogo interdisciplinar, reunindo especialistas em filosofia, neurociência, medicina e ciência da computação para abordar as complexidades éticas da IA na medicina;

(iv) Desenvolver atividades acadêmicas e de divulgação, como seminários mensais, conferências internacionais e escolas de verão, visando disseminar os resultados da pesquisa e engajar a comunidade acadêmica e o público em geral.

Sistemas de IA e bioética

Entre as descobertas preliminares, destacamos a identificação de uma lacuna significativa na compreensão e na confiança dos profissionais de saúde em relação aos sistemas de IA: muitos médicos relutam em adotar essas tecnologias devido à falta de transparência nos processos decisórios algorítmicos, o que pode comprometer a responsabilidade clínica e a autonomia profissional. Além disso, o projeto tem enfatizado a importância de desenvolver abordagens de IA que não apenas priorizem a eficiência, mas também considerem os valores humanos e éticos fundamentais. Isso inclui a promoção de sistemas de IA que sejam explicáveis, auditáveis e alinhados com os princípios da bioética.

Uma das principais contribuições que o projeto já trouxe foi a identificação de um déficit de interdisciplinaridade crítica nos debates sobre IA: muitas vezes, os engenheiros e técnicos trabalham com noções implícitas de ética e racionalidade, sem o apoio conceitual necessário da filosofia. Ao mesmo tempo, parte da filosofia ainda opera com imagens desatualizadas ou caricaturais da tecnologia. Nosso esforço tem sido justamente promover um encontro produtivo entre esses mundos. Entre os resultados já obtidos, destacaria a organização de uma coletânea internacional – que estou editando – com contribuições inéditas de pesquisadores que tratam das intersecções entre filosofia e IA em quatro eixos: fundamentos, medicina, sociedade e educação.

Além disso, nossas pesquisas têm ajudado a consolidar a ideia de que pensar a ética da IA não é apenas discutir limites, mas também imaginar possibilidades e soluções (como apresentei no minicurso na Unisinos): de emancipação, de inclusão, de novas formas de cuidado e de justiça. Acredito que esse projeto contribui para avançar o campo ao mostrar que a filosofia não é um adorno reflexivo posterior ao desenvolvimento tecnológico, mas um instrumento epistemológico fundamental para guiar esse desenvolvimento desde o início. Pensar a IA eticamente é, em última instância, pensar o tipo de humanidade que queremos construir para o futuro.

IHU – Em que aspectos a Filosofia, sobretudo através da ética, pode e deve colaborar no desenvolvimento e uso da IA?

Steven S. Gouveia – A Filosofia, e em particular a ética, tem um papel absolutamente central no debate sobre Inteligência Artificial – não como um acessório posterior ao desenvolvimento técnico, mas como uma infraestrutura conceitual e normativa que deve orientar desde o início o modo como concebemos, projetamos e aplicamos essas tecnologias. Em primeiro lugar, a ética filosófica oferece as ferramentas necessárias para avaliar não apenas o que é possível fazer com a IA, mas o que é desejável. Essa distinção é fundamental. Em um cenário cada vez mais dominado pela lógica da eficiência, da inovação e do lucro, a ética entra como um campo de reflexão crítica que nos convida a pensar sobre as consequências morais, sociais e políticas do uso da IA. A filosofia pode colaborar em pelo menos três níveis: (a) no nível normativo, fornecendo princípios como justiça, autonomia, beneficência, responsabilidade e explicabilidade, que devem nortear a construção e a aplicação de sistemas de IA – especialmente em áreas sensíveis como saúde, em que estamos perante indivíduos em situação altamente fragilizada do ponto de vista epistémico; (b) No nível epistemológico, questionando os pressupostos que orientam os modelos computacionais: o que é inteligência? O que é uma decisão “correta”? Qual é o papel dos vieses nos dados? A filosofia ajuda a esclarecer e criticar os fundamentos do que se considera “racional” ou “objetivo” nas máquinas; (c) No nível político e social, alertando para os riscos de exclusão, vigilância, manipulação e desigualdade algorítmica. Nesse sentido, a Ética da IA deve ser também uma ética pública, preocupada com a justiça distributiva, o acesso equitativo à tecnologia e a preservação dos direitos fundamentais.

Além disso, a filosofia tem um papel decisivo na construção da confiança – um tema central no meu projeto em curso sobre IA e medicina (rTAIM). A confiança não se constrói apenas com bons resultados técnicos, mas com transparência, responsabilidade e sensibilidade aos contextos humanos. E é justamente nisso que a filosofia pode e deve contribuir: ao lembrar que toda tecnologia, por mais sofisticada que seja, está sempre inserida numa teia de valores, expectativas e relações sociais, que devem ser tomadas em conta no desenvolvimento destes sistemas de IA. Em última instância, a filosofia é o espaço onde podemos fazer as perguntas que muitas vezes o entusiasmo tecnológico ignora: para que queremos a IA?, a quem ela deve servir?, e que tipo de sociedade estamos dispostos a construir com ela?

IHU – O que a Filosofia e a ética têm a dizer acerca do uso da IA para fins bélicos, como o que tem sido conduzido pelo exército israelense, por exemplo?

Steven S. Gouveia – O uso da Inteligência Artificial em contextos bélicos – como o que tem sido amplamente noticiado no caso do exército israelense – levanta algumas das questões mais urgentes e inquietantes da filosofia contemporânea, sobretudo no campo da ética e da teoria política. A automação da guerra, com apoio de sistemas de IA para reconhecimento de alvos, tomada de decisão e ataques autônomos, desafia profundamente os princípios que sustentam tanto o direito internacional, quanto a moralidade das ações humanas em tempos de conflito. A primeira contribuição da ética aqui é clara: há limites morais que não podem ser delegados a máquinas. A decisão de tirar uma vida, por mais que ocorra num cenário de guerra, é uma decisão profundamente humana, carregada de responsabilidade moral, e não deve ser terceirizada a algoritmos – especialmente aqueles que operam como verdadeiras “caixas-pretas”, sem transparência nem possibilidade de escrutínio ético.

Em segundo lugar, a filosofia política alerta para o risco de desumanização radical que esses sistemas promovem: ao transformar alvos em “pontos de dados”, e decisões letais em execuções algorítmicas, corremos o risco de eliminar não apenas a empatia, mas também os mecanismos de responsabilização. Quem responde por um erro cometido por uma IA bélica? O programador? O comandante? O Estado? A tecnologia não elimina a responsabilidade; ela a fragmenta – e com isso, muitas vezes, a obscurece algo que, num cenário de Guerra, pode ser a diferença entre morrerem inocentes, ou não. A ética da guerra – o chamado jus in bello – pressupõe princípios como proporcionalidade, distinção entre combatentes e civis, e responsabilidade.

Em 2018 publiquei o meu primeiro livro, de título Reflexões filosóficas: arte, mente e justiça, onde o primeiro capítulo da seção dedicada à Justiça é precisamente uma reflexão sobre como as armas autônomas são altamente problemáticas do ponto de vista ético. A IA, quando usada de forma opaca e desproporcional, pode violar todos esses critérios. E é exatamente por isso que filósofos, juristas e cidadãos conscientes devem intervir no debate: para evitar que a tecnologia da guerra se torne uma forma de tecnologia da indiferença.

IHU – Quais seriam os maiores desafios éticos da era da IA?

Steven S. Gouveia – A era da Inteligência Artificial traz alguns desafios éticos realmente grandes que precisamos enfrentar. Vou destacar alguns dos mais importantes:

1) Justiça e desigualdade algorítmica: A IA tem o potencial de reforçar as desigualdades que já existem na sociedade. Isso acontece porque muitos algoritmos são treinados com dados históricos, que podem ter preconceitos embutidos, como discriminação racial, de gênero ou de classe. O grande desafio aqui é fazer com que a IA seja mais justa e que não perpetue essas desigualdades.

2) Privacidade e vigilância: Com a IA, há uma coleta de dados em massa, o que pode ser usado para nos vigiar o tempo todo – como no reconhecimento facial e monitoramento de comportamento. Isso coloca em risco nossa privacidade e liberdade. O desafio ético é encontrar um equilíbrio entre usar a IA para segurança, sem invadir nossos direitos pessoais.

3) Responsabilidade e autonomia: À medida que mais decisões começam a ser tomadas por IA, como em áreas da medicina ou no campo militar, a questão da responsabilidade fica mais complicada. Se uma IA comete um erro ou causa um dano, quem é o responsável? Isso fica difícil de responder quando a tecnologia se torna cada vez mais autônoma. A ética precisa lidar com isso, já que a responsabilidade não pode ser jogada apenas para a IA, ou seus criadores.

4) Transparência e explicabilidade: Muitos sistemas de IA, como os baseados em aprendizado profundo, funcionam como “caixas-pretas”. Ou seja, ninguém sabe exatamente como chegam a uma decisão. Isso é problemático, especialmente em áreas como a medicina, onde uma IA pode afetar diretamente a saúde das pessoas. O grande desafio ético aqui é garantir que as decisões da IA possam ser entendidas e verificadas pelos humanos.

5) Desumanização e perda de agência: Quando começamos a delegar muitas decisões importantes à IA, corremos o risco de perder a nossa capacidade de decidir e agir de forma crítica. A IA pode acabar desumanizando o processo, fazendo com que as pessoas deixem de questionar e aceitar passivamente o que a tecnologia diz. O desafio é garantir que as pessoas continuem a ter o controle e a agência para tomar suas próprias decisões, mesmo com toda essa tecnologia ao redor.

6) Impacto no trabalho e na economia: A IA também vai mudar a forma como trabalhamos. Se muitas tarefas forem automatizadas, isso pode tirar empregos e aumentar a desigualdade, já que quem controla a tecnologia vai ficar com a maior parte dos benefícios. O desafio ético aqui é garantir que essa transição seja justa, para que todos possam se beneficiar, e não só uma minoria.

Esses são apenas alguns dos desafios mais urgentes. O ponto principal é que a tecnologia não pode determinar como a sociedade vai funcionar. Precisamos garantir que, ao desenvolver a IA, estamos pensando em princípios éticos que protejam a dignidade humana, a justiça e a Liberdade em todos os aspectos envolvidos na tecnologia: no antes, no durante, e no depois.

IHU – Que aspectos merecem ser destacados em relação aos desafios éticos da IA no campo da medicina (neurociência)?

Steven S. Gouveia – No campo da medicina, especialmente na neurociência, os desafios éticos que surgem com o uso da IA são bastante específicos e importantes, pois lidamos com dados extremamente sensíveis, como as informações sobre o funcionamento do cérebro e a saúde mental das pessoas. Um dos principais desafios está relacionado à privacidade e ao uso de dados altamente sensíveis: quando usamos IA para analisar informações como imagens de ressonância magnética ou até dados de neuroestimulação, estamos lidando com dados que dizem respeito à identidade e ao funcionamento mais íntimo de um indivíduo. Isso exige um nível de proteção muito alto, além de garantir que os pacientes saibam como seus dados estão sendo utilizados e que tenham controle sobre isso. Outro grande desafio é a tomada de decisões automatizada: a IA pode ajudar a diagnosticar doenças neurológicas, como Alzheimer, ou até prever tratamentos para distúrbios psiquiátricos. No entanto, em situações tão críticas, a questão ética se coloca: até que ponto devemos confiar em uma máquina para tomar decisões sobre a saúde de uma pessoa?

Os sistemas de IA podem ser extremamente eficientes, mas sempre há o risco de erros que possam impactar gravemente a vida de alguém. Assim, é necessário um equilíbrio entre a confiança na tecnologia e a supervisão humana. A explicabilidade da IA é outro ponto crucial, especialmente quando ela é usada para fazer diagnósticos ou sugerir tratamentos. Muitas vezes, os sistemas de IA funcionam de maneira opaca, como “caixas-pretas”, o que significa que nem sempre sabemos como a IA chegou à sua conclusão. No campo da medicina, e mais especificamente na neurociência, isso é problemático: médicos e pacientes precisam entender claramente como uma IA fez suas recomendações, para que possam tomar decisões informadas. Sem essa transparência, podemos enfrentar dificuldades tanto no entendimento dos pacientes, quanto na confiança dos profissionais de saúde no sistema. Para tal, é preciso exigir uma melhor Inteligência Artificial, que eu chamo de Inteligência Artificial explicativa, que possa ser útil na sua eficácia, mas transparente o suficiente para nos providenciar explicações.

Além disso, os vieses nos dados usados para treinar a IA representam um risco significativo: se os dados usados são predominantemente de um determinado grupo de pessoas, como por exemplo, de uma etnia ou classe social específica, a IA pode acabar oferecendo diagnósticos imprecisos ou tratamentos inadequados para outros grupos. Isso é ainda mais sensível quando falamos de doenças neurológicas e mentais, que podem se manifestar de maneira diferente dependendo da cultura, histórico e características individuais. A IA precisa ser treinada com dados diversos e representativos para evitar que esses vieses se perpetuem.

Ética da IA na medicina

A acessibilidade das tecnologias também é um grande desafio. A IA tem o potencial de transformar o tratamento de várias doenças cerebrais, mas essa tecnologia pode ser cara e limitada a certas regiões ou grupos sociais. Isso pode gerar uma divisão ainda maior no acesso à saúde de qualidade, aprofundando desigualdades existentes. A ética da IA na medicina precisa garantir que esses avanços não beneficiem apenas uma pequena parte da população, mas que sejam acessíveis a todos.

Por fim, a autonomia do paciente e o consentimento informado são fundamentais em qualquer tratamento médico, e com a IA não é diferente: quando a IA é utilizada para tomar decisões sobre a saúde de pacientes, especialmente aqueles com doenças neurodegenerativas ou condições psiquiátricas que limitam sua capacidade de decisão, surge a questão de como garantir que essas decisões respeitem a autonomia do paciente. Além disso, garantir que o consentimento informado seja obtido de maneira clara e compreensível se torna um grande desafio, já que muitos pacientes podem não entender completamente o funcionamento das tecnologias envolvidas. Esses aspectos éticos exigem que, ao integrar IA na medicina, especialmente na neurociência, pensemos cuidadosamente sobre como usamos essa tecnologia, garantindo que respeite os direitos, a privacidade e a dignidade dos pacientes.

IHU – Recentemente, Bill Gates afirmou que na próxima década a IA vai substituir médicos e professores. Como percebe os impactos dessa mudança de paradigma no mundo do trabalho e nas relações humanas?

Steven S. Gouveia – A afirmação de Bill Gates sobre a IA substituir médicos e professores levanta questões importantes. Na medicina, a IA pode melhorar diagnósticos e tratamentos, mas não substitui a empatia e a comunicação humana, que são fundamentais para o cuidado dos pacientes. No ensino, a IA pode personalizar o aprendizado, mas não consegue substituir o papel emocional e social dos professores. No mundo do trabalho, a automação pode aumentar a eficiência, mas também pode levar à perda de empregos, exigindo requalificação e adaptação dos trabalhadores. Esse contexto exige reflexões profundas sobre redistribuição da riqueza e da natureza do trabalho: talvez soluções como a Renda Básica Universal tenham de ser consideradas e pesquisadas para um future próximo.

Quanto às relações humanas, o uso excessivo de IA pode diminuir as conexões interpessoais e aumentar o isolamento social (vemos isso, por exemplo, no Japão, onde os homens têm preferência por ter intimidade com robôs sexuais, ao invés de outros seres humanos) e, por isso, deve ser refletida interdisciplinarmente, incluindo vários especialistas que possam abarcar os vários aspectos técnicos, sociais, culturais, psicológicos e filosóficos da Inteligência Artificial.

IHU – Ainda considerando o cenário descrito por Bill Gates, como percebe o uso de assistentes de IA como ChatGPT, Gemini, DeepSeek em relação a produções filosóficas e sua originalidade?

Steven S. Gouveia – O uso de assistentes de IA como ChatGPT, Gemini e DeepSeek na produção filosófica levanta questões interessantes sobre originalidade e autoria: por um lado, essas IAs podem ser ferramentas poderosas para explorar ideias, organizar pensamentos e até mesmo gerar conteúdo filosófico com base em grandes volumes de dados e textos (vemos aplicações interessantes na Arte Criativa, por exemplo, onde sistemas de IA podem completar sinfonias inacabadas de compositores falecidos, como o caso do projeto Beethoven X). Porém, a questão da originalidade é mais complexa: as IAs, como essas, não criam ideias de maneira independente, mas combinam e reconfiguram o conhecimento existente, produzindo sempre a partir de uma “imagem” do passado.

As produções criativas geradas por IA podem ser úteis como ponto de partida ou como ferramentas de apoio, mas dificilmente podem ser consideradas originais no sentido em que usamos o termo em outros campos de aplicação. Estes assistentes de IA podem muito úteis, por exemplo, em traduzir a pesquisa de autores que estão de certa forma excluídos da produção acadêmica internacional: está mais que identificado que autores acadêmicos que trabalham em países de língua inglesa têm muito maior probabilidade de serem lidos e, por consequência, citados. No Brasil, um estudo muito interessante mostrou que acadêmicos com nomes estrangeiros, mesmo que vivendo e trabalhando no Brasil, têm maior probabilidade de serem citados do que colegas com nomes de origem portuguesa. O caso do auxílio na tradução pode ser um caso interessante que permite corrigir uma injustiça linguística na filosofia acadêmica.

Leia mais