No meio do caminho da IA há a vida. Entrevista especial com Leandro Modolo, Luiz Vianna Sobrinho e Karla Figueiredo

A entrevista foi respondida por três pesquisadores que são organizadores do livro ‘Artificial Intelligence and Bioethics: Perspectives’ (Routledge, 2025)

Vídeo: Pixabay

11 Julho 2025

No meio do caminho” é o nome de um dos poemas mais conhecidos de Carlos Drummond de Andrade. A primeira estrofe começa assim: “No meio do caminho tinha uma pedra”. A alegoria do poema modernista trata, no fundo, das complexidades do real e nos lembra dos desafios a enfrentarmos. A “pedra” da Inteligência Artificial é, precisamente, a vida e a vida humana, que a coloca sempre na berlinda e cujos estudos filosóficos estão no campo da bioética.

“O ponto inicial, logo de saída, é que a abordagem da Bioética para as tecnologias de IA deve ser a mesma que a fez surgir no século passado; ou seja, quais os problemas éticos essa nova tecnologia vai trazer ao humano, à humanidade, à sociedade, ao ambiente? Quais são os riscos dessa nova tecnologia para o nosso futuro, para as gerações futuras? Como podemos evitar os malefícios? Como aumentar a autonomia humana com ela? Como utilizá-la em prol da justiça social, da equidade e de formas de democracia? Ou com outras abordagens éticas: como a IA pode contribuir para o florescer humano?”, questiona Luiz Vianna Sobrinho, que juntamente com Karla Figueiredo e Leandro Modolo organizaram o livro Artificial Intelligence and Bioethics: Perspectives (Routledge: 2025) e concederam entrevista por e-mail ao Instituto Humanitas Unisinos – IHU.

“Sim, é possível que uma IA siga regras ou princípios éticos, mas isso não significa que ela ‘decida de forma ética’ no sentido humano, pois carece de consciência e responsabilidade moral. A IA não pode ser responsabilizada por suas decisões; a responsabilidade recai sobre quem a projetou, treinou e aplicou”, destaca Karla Figueiredo. “Os modelos de Machine Learning podem tomar decisões alinhadas a princípios éticos se os modelos incluírem a codificação de regras éticas, como ‘não causar dano’ em algoritmos de decisão. Essas regras podem ser baseadas em frameworks éticos como: Beauchamp e Childress, deontologia kantiana e a maximização do bem-estar coletivo”, complementa.

A prática, no entanto, nos convida a estar atentos. Leandro Modolo traz dois exemplos que são emblemáticos sobre como pensar a dimensão bioética da IA requer um olhar rigoroso sobre seus usos. “Em 2017, a província de Salta, na Argentina, firmou um acordo com a Microsoft/Azure para usar IA na prevenção da gravidez na adolescência e do abandono escolar. O que era manifesto no acordo logo revelou o que estava latente. O poder local era liderado pelo conservador Juan Manuel Urtubey, com claros posicionamentos contrários aos direitos sexuais e reprodutivos, então a iniciativa mostrou ter vários problemas do ponto de vista bioético e político. (...) Quando isso se combina às elites e classes dominantes que pouco ou nada têm de compromisso com as populações subalternizadas, as tecnologias são eficientes especialmente para atualizar e fortalecer os velhos mecanismos de opressão e exclusão”, explica.

Algo semelhante ocorreu nos Estados Unidos. “Tomemos como exemplo o caso de racismo algorítmico que ocorreu em um plano de saúde nos EUA. Pesquisas revelaram que a IA privilegiou pacientes brancos em detrimento dos negros, mesmo quando estes últimos estavam mais doentes. O algoritmo utilizado não incorporava explicitamente a variável raça em seus critérios de análise. Mas ele se baseava na estimativa dos custos futuros que um paciente deveria gerar para o serviço. Como pacientes negros costumam gerar menos custos ao sistema, devido justamente às desigualdades no acesso aos serviços, o algoritmo subestimou as necessidades de cuidado da população negra”, acrescenta.

“Entendo que uma IA ética deve ser orientada por princípios que coloquem o ser humano no centro das decisões tecnológicas, promovendo justiça, transparência e responsabilidade. Isso significa também considerar o meio ambiente, por exemplo, já que o ser humano exige um ambiente saudável para também se manter são”, sugere Karla Figueiredo.

Luiz Vianna Sobrinho (Foto: Reprodução/Instagram do entrevistado)

Luiz Vianna Sobrinho é graduado em Medicina pela Faculdade de Medicina de Petrópolis (1986), com pós-graduação em Cardiologia - Instituto de Assistência dos Servidores do Estado do Rio de Janeiro (1989) e em Bioética - Fiocruz (2003). Doutor em Bioética e Saúde Coletiva, pelo PPGBIOS - Escola Nacional de Saúde Pública Sérgio Arouca/Fiocruz (2020) e Editor do Observatório da Medicina ENSP/Fiocruz, além de Sócio-fundador da Estratégia Latino-Americana de Inteligência Artificial - ELA-IA (2023).

Karla Figueiredo (Foto: Portal Gov)

Karla Figueiredo é graduada em Engenharia Elétrica pela Universidade Federal do Rio de Janeiro (1990), mestre em Engenharia Elétrica pela Pontifícia Universidade Católica do Rio de Janeiro (1994) e doutora em Engenharia Elétrica pela Pontifícia Universidade Católica do Rio de Janeiro (2003). Atualmente é professora associada da Universidade do Estado do Rio de Janeiro. Membro efetivo dos Programas de Pós-Graduação em Ciencias Computacionais (CompMat)/IME/UERJ e ao Telessaude/UERJ e membro colaborador no Programas de Pós-Graduação de Engenharia Elétrica da PUC-Rio. Coordena o Laboratório LIA2 na UERJ e co-coordena o LIRA e CIARio.

Leandro Modolo (Foto: Unicamp)

Leandro Modolo é sociólogo da saúde e sanitarista e professor da Faculdade de Ciências da Saúde da Santa Casa de São Paulo, no Departamento de Saúde Coletiva. Doutor em Ciências Sociais/UNESP e, atualmente, realizando pesquisa de doutorado junto à Faculdade de Ciências Médicas (FCM) da UNICAMP no programa de Saúde Coletiva. Ademais, sou membro pesquisador de Implicações das Tecnologias Digitais nos Sistemas de Saúde/ Iniciativa de Prospecção Estratégica Saúde Amanhã/ Estratégia Fiocruz para a Agenda 2030. Cofundador da associação Estratégia Latino-Americana de Inteligência Artificial (ELA-IA).  

Confira a entrevista.

IHU – Pode nos explicar o que é bioética e como a IA insere um novo capítulo no debate sobre IA?

Luiz Vianna Sobrinho – Gosto de pensar a bioética como uma “ciência da sobrevivência”, expressão utilizada pelo seu fundador, o bioquímico norte-americano Van Rensselaer Potter. Ele trabalhava com pesquisas em oncologia e comparou o comportamento do desenvolvimento humano na Era Industrial sobre a vida na Terra, notadamente no século XX, com a destruição que causa o câncer em um corpo vivo. Com uma visão profundamente ecológica, buscou conectar o conhecimento dos sistemas biológicos com o campo dos valores morais, abrangendo todos os seres vivos e ecossistemas. Sua ideia é que devíamos fundamentar nossas escolhas de valores para orientar nossas práticas sobre a vida na Terra.

Desde a sua primeira publicação – Bioética: uma ponte para o futuro (Loyola, 2016) – havia essa postura de responsabilidade ética, que hoje pensamos estender às gerações futuras. Mas, desde o início da bioética, muitos se dedicaram a essa disciplina pelo impacto que o boom das biotecnologias, das pesquisas biomédicas e as novas tecnologias da área médica acarretaram em termos de conflitos éticos, injustiças e violações de direitos. A necessidade de rediscutir fundamentos morais para orientações nas práticas com as ciências da vida impulsionaram esse campo transdisciplinar, o que levou o filósofo Stephen Toulmin a escrever um artigo onde dizia que a medicina havia salvado a ética. Ou seja, a reflexão ética clássica, restrita ao meio acadêmico, precisou se transformar em uma verdadeira ética prática, para mediar e intervir nos conflitos. Essa verdadeira revolução biotecnológica impulsionou a bioética para o desenvolvimento da própria ética médica.

Mas novas abordagens éticas e os conflitos sociopolíticos, ambientais e multiculturais resgataram o perfil ecossistêmico da bioética e o próprio Potter publica um segundo livro no fim do século XX – Bioética global: construindo a partir do legado de Leopold (Loyola, 2018) – reiterando sua proposta inicial para a constituição de uma nova disciplina ou ciência que combine o conhecimento da biologia com diversos conhecimentos humanísticos e que estabeleça “um sistema de prioridades médicas e ambientais” que garanta a sobrevivência da humanidade.

Essa visão da bioética (humanística, ecológica, ambiental e global), que pensa e prescreve como devemos agir para proteger nosso futuro e das novas gerações, é que receberá o impacto na nova onda tecnológica – a Era Digital. Parafraseando o Toulmin, eu penso que as novas tecnologias de informação (robótica, IA etc.) trouxeram para o cenário da vida prática não só a ética, mas também a ontologia, a epistemologia, a filosofia da mente, a metafísica. As tecnologias de IA nos fazem cumprir a meta aristotélica da filosofia como um conhecimento ou sabedoria que chamaríamos prático, da ação.

IHU – Quais são as principais questões associadas à bioética e a IA?

Luiz Vianna Sobrinho – O ponto inicial, logo de saída, é que a abordagem da bioética para as tecnologias de IA deve ser a mesma que a fez surgir no século passado, ou seja: quais os problemas éticos essa nova tecnologia trará ao humano, à humanidade, à sociedade, ao ambiente? Quais são os riscos dessa nova tecnologia para o nosso futuro, para as gerações futuras?

A bioética responde a algo novo, que nos afronta com possibilidades de conflito, de ameaça ao nosso ethos; como sua raiz, a filosofia, responde ao espanto – thauma – frente ao mundo, com reflexão. E a partir da reflexão sobre os fatos, analisando as tramas tecnopolíticas, confrontando a pluralidade das posições morais, transformando em experiência, aquilo que o filósofo francês Lucien Séve descreve como um oposto kantiano – uma “crítica da razão impura”. Assim, o caráter de proteção do ethos é a peça chave. A empolgação com a tecnologia per se, com ondas de progresso, aumento do desempenho, da eficiência, não são valores do nosso ethos e não devem encantar ao bioeticista.

Devemos olhar para a IA com o mesmo rol de ferramentas que tratamos de outras questões, questionando: Como ela pode trazer benefícios? Como podemos evitar os malefícios? Como aumentar a autonomia humana com ela? Como utilizá-la em prol da justiça social, da equidade e de formas de democracia? Ou questionando sob outras abordagens éticas: Como a IA pode contribuir para o florescer humano? Como podemos utilizá-la com responsabilidade, pensando nas gerações futuras? Como utilizá-la sem reforçar as iniquidades de gênero, sem racismo algorítmico? Qual o dano que a operação da IA nos data centers traz ao ambiente? Qual a saída para os modelos de dominação social que têm sido apresentados em várias leituras, como ‘capitalismo de vigilância’, ‘capitalismo de plataforma’, ‘colonialismo de dados’, ‘tecnoextrativismo’ etc.? Por fim, mas não menos importante: a IA é uma ameaça ao que há de mais próprio ao humano, a sua inteligência?

IHU – Que tipo de contribuição a IA pode oferecer à bioética?

Karla Figueiredo – A IA com seus algoritmos de Machine Learning pode processar grandes volumes de dados éticos, visando identificar padrões éticos ou não recorrentes em prontuários, pesquisas ou bases legais, auxiliando na construção de modelos éticos mais adequados. A título de exemplo, podemos citar sistemas de apoio à decisão que monitoram práticas potencialmente discriminatórias ou decisões que comprometam a autonomia do paciente ou qualquer situação inadequada, seja devido a padrões por raça, seja devido a padrões por religião, sexo, doença, idade, etc.

IHU – As decisões da IA têm consequências morais na vida das pessoas, mas é possível que uma IA decida de forma ética?

Karla Figueiredo – Sim, é possível que uma IA siga regras ou princípios éticos, mas isso não significa que ela “decida de forma ética” no sentido humano, pois carece de consciência e responsabilidade moral. A IA não pode ser responsabilizada por suas decisões; a responsabilidade recai sobre quem a projetou, treinou e aplicou.

Os modelos de Machine Learning podem tomar decisões alinhadas a princípios éticos se os modelos incluírem a codificação de regras éticas, como “não causar dano” em algoritmos de decisão. Essas regras podem ser baseadas em frameworks éticos como: Beauchamp e Childress, deontologia kantiana e a maximização do bem-estar coletivo. Além disso, as decisões sensíveis (como desligamento de suporte de vida, priorização em filas de transplante, ou crédito social) devem envolver IA como apoio à decisão, nunca como agente decisório final.

IHU – Pode comentar o que foi o experimento “Plataforma Tecnológica de Intervenção Social” com IA preditiva na Argentina, realizado anos atrás e que teve como “objeto de pesquisa” meninas e mulheres entre 10 e 19 anos? Qual era o objetivo do levantamento de dados e quais foram as questões bioéticas em jogo?

Leandro Modolo – Em 2017, a província de Salta, na Argentina, firmou um acordo com a Microsoft/Azure para usar IA na prevenção da gravidez na adolescência e do abandono escolar. O sistema compilava informações sobre dados pessoais, trabalho, educação, saúde, moradia e estrutura familiar, como idade, etnia, condições de moradia, acesso a serviços básicos e histórico de gravidez na família – mais de 78 atributos. A iniciativa operou através de “agentes territoriais” que visitavam as casas das famílias identificadas, aplicavam questionários, tiravam fotografias e registravam localizações GPS. O objetivo oficial era desenvolver um algoritmo capaz de prever, com cinco ou seis anos de antecedência, quais meninas estariam propensas a engravidar na adolescência.

Segundo eles, com a implementação tecnológica, algo que antes precisava de dois meses para ser processado, com a nova plataforma da Big Tech os resultados eram obtidos em segundos. Acontece que, embora o projeto tenha gerado resultados tangíveis em termos de processamento de dados e eficiência administrativa, ele também levantou diversas questões seríssimas que merecem toda atenção.

Nenhuma técnica ou tecnologia paira no ar, acima das relações de forças que atravessam as sociedades; pelo contrário, elas são sobredeterminadas por tais relações. O que era manifesto no acordo logo revelou o que estava latente. O poder local era liderado pelo conservador Juan Manuel Urtubey, com claros posicionamentos contrários aos direitos sexuais e reprodutivos, então a iniciativa mostrou ter vários problemas do ponto de vista bioético e político.

Da seleção das amostras aos parâmetros utilizados, passando pelos objetivos, tudo se mostrou marcado por prévias ideações sexistas, racistas e classistas sobre determinados bairros e população historicamente estigmatizadas, como populações indígenas wichi, qulla e guarani – reforçando as discriminações e os mecanismos de opressão. Além disso, viu-se transgredido princípios fundamentais de respeito à privacidade e à autonomia individual.

De lá para cá a iniciativa foi expandida e exportada para vários países da América Latina, inclusive o Brasil. Então, é preciso se perguntar: como ela tem operado desde então? Por que veja, essas corporações têm uma plêiade de poderes tecnológicos, econômicos, políticos e jurídicos que se retroalimentam; e quando isso se combina às elites e classes dominantes que pouco ou nada têm de compromisso com as populações subalternizadas, as tecnologias são eficientes especialmente para atualizar e fortalecer os velhos mecanismos de opressão e exclusão.

IHU – Um exemplo de perspectiva positiva da IA é a análise de exames médicos de imagens e a possibilidade de diagnósticos mais precisos, com base em informação de Big Data. Este é de fato um bom exemplo? Que aplicações bioeticamente responsáveis podemos vislumbrar?

Karla Figueiredo – Sim, esse é um exemplo do uso positivo e bioeticamente promissor da IA. A avaliação de diversos exames médicos de imagem (como radiografias, tomografias, ressonâncias e ultrassom, exames laboratoriais e histórico clínico do paciente, além de medicamentos que já fez ou faz uso) tem se mostrado mais acurado e ágil, melhorando a decisão clínica.

IHU – Quais devem ser os princípios orientadores de uma IA ética?

Karla Figueiredo – Entendo que uma IA ética deve ser orientada por princípios que coloquem o ser humano no centro das decisões tecnológicas, promovendo justiça, transparência e responsabilidade. Isso significa também considerar o meio ambiente, por exemplo, já que o ser humano exige um ambiente saudável para também se manter são. Assim, a IA ética não é apenas tecnicamente correta, mas socialmente responsável, orientada por valores humanos fundamentais.

IHU – De que ordem seria um novo humanismo para a era da IA, um humanismo digital capaz de ser construído em pilares éticos?

Leandro Modolo – Eu não sei se meus colegas concordam, mas me permitindo um voo mais especulativo, pessoalmente costumo dizer que nas últimas décadas temos duas novas presenças “ontológicas” na sala da ética e da política.

A primeira se refere àquilo que a filósofa da ciência Isabelle Stengers chamou de “intrusão de Gaia”. O que isso quer dizer? Grosso modo, significa que o Capitaloceno fez da Terra uma agente intrusa, isto é, uma força “cega aos danos que provoca”, que passou a exigir que os humanos repensem a relação com a natureza. A mudança climática é o centro disso. Stengers enfatiza que não devemos lutar contra Gaia, mas sim aprender a “compor com ela”. Porque nós, humanos, não podemos controlá-la tal como pensam a maioria dos políticos, empresários e cientistas. Então, é preciso encontrar formas de responder e agir diante dessa realidade intrusiva, reconhecendo que a crise ambiental é um acontecimento biofísico, mas que as saídas exigem novas éticas e políticas, radicalmente novas dessas instituídas sob a lógica do capital.

A segunda que adentrou a sala é a IA. Se na primeira temos que repensar ética e politicamente as fronteiras entre o humano e o “natural”, ou melhor, as composições entre tais formas de ser, na segunda necessitamos repensar as composições entre humano e o artificial. Aqui haveria muito para se discutir, mas penso que a primeira pergunta que deveríamos nos fazer é: Existiria o que entendemos como artificial, da machadinha acheuliana até a IA, sem que houvesse os humanos? Ou melhor, haveria o devir-humano do Homo sapiens, para emprestar uma expressão Gyorgy Lukács, sem a produção do artificial? Penso que não. O artificial é parte constitutiva do que nos faz humanos e sem ele não seríamos humanos.

Daí penso que o horizontalismo plano, tanto daqueles que consideram não haver distinção ontológica entre o humano e o natural quanto daqueles que insistem em ver no humano apenas uma máquina complexa passível de ser mimetizada in silico, é problemático. Eu sou a favor de recolocar o debate da excepcionalidade do humano, não para retornarmos à cosmovisão supremacista do humanismo renascentista, marcadamente eurocêntrico, individualista, racista, especista etc., mas para insistir no valor da equidade ao invés da igualdade, isto é, há que reconhecer as desigualdades entre as formas de ser – inorgânico, orgânico e humano – e agir com base nelas. Porque a única ética e política que é possível é a ética e política humana; na floresta os bichos e plantas não constituem relações éticas e políticas entre si, muitíssimo menos as IA são ou serão capazes de fazê-lo.

Em suma, enquanto humanidade precisamos assumir a responsabilidade ética e política da nossa excepcionalidade. Pessoalmente, acho que esse é um desafio muito maior e mais complexo do que planificar tudo em nome de uma suposta horizontalidade. A humanidade é a única forma de ser capaz de encontrar saídas equânimes, livres e harmônicas das composições entre as distintas formas de ser, antes que seja muito tarde.

Acesse aqui para mais informações do livro Artificial Intelligence and Bioethics: Perspectives (Foto: Divulgação)

IHU – O livro aponta no sentido de que é necessária uma “ética estruturada e robusta para orientar o desenvolvimento e a aplicação da IA”, compatível com responsabilidade socioambiental. Pode nos falar mais sobre essa proposta?

Leandro Modolo – Excelente pergunta, porque ela me permite desenvolver questões que não estão no livro propriamente. Eu começaria ressaltando que não é apenas necessária uma abordagem sistêmica para dar conta das questões trazidas pela IA, mas sistêmica e, também, dialética. Minha posição pessoal é de um esforço de crítica dialética. Desse modo, não vejo como razoáveis aqueles que apenas apontam os aspectos negativos e destrutivos, mesmo quando estes são os mais pesados na balança, como é o caso até o momento. É preciso que a atitude crítica não se contente com o que está dado e se disponha a procurar, no aqui e agora, as saídas perdidas ou que ainda não foram criadas; é preciso descortinar os horizontes que por hora não estão sendo vistos como possíveis, mas que podem ou devem ser viabilizados como tais.

Posto isso, se hoje a IA como uma grande “indústria” (setor) global tem levado à piora das condições sociais, políticas e econômicas, devemos nos perguntar: é só este o caminho possível? Não há nela potencialidades que podem ser redesenhadas e redirecionadas para a equidade e soberania popular, por exemplo?

Peguemos o caso do uso de um recurso finito como a água. Hoje o setor da IA é pautada pelo mantra corporativo do bigger-is-better e do crescimento infinito, algo que coloca em aceleração brutal a extração de recursos naturais como a água – entre outros, logicamente. Um dos nós centrais neste consumo é a chamada computação em nuvem, que; como sabemos, são baseadas em centros de dados agenciados pelas Big Techs. Em média, um data center típico consome entre 3 a 5 milhões de litros de água por dia, o que equivale ao consumo diário de uma cidade de cerca de 30 a 50 mil habitantes. A maior parte desse volume é direcionada aos sistemas de refrigeração do calor gerados nos cálculos computacionais, típicos de IA. E a cada mês tem um novo data center sendo inaugurado. Estima-se que o consumo de água associado a IA aumente de forma acentuada nos próximos anos. Em pesquisa recente aparece a estimativa de que o setor da IA requererá entre 4,2 e 6,6 bilhões de metros cúbicos de água até 2027. Esse volume é o equivalente a 5,5 vezes o consumo por ano da população da Região Metropolitana de São Paulo.

Veja, isso não revela somente o fetichismo em torno da “nuvem”, cujas promessas de inovação e eficiência tecnológica repousam sobre uma base físico-material altamente dependente e exploradora de recursos socioambientais; ele também nos interpela para a necessidade de outras formas de design deste setor. Por que uma pergunta-chave é: qual a razão desse setor operar com vista à concentração máxima do máximo de dados em seus centros de dados? Os argumentos em prol de razões técnicas não se sustentam mais. A chinesa DeepSeek demonstrou que para ter IA com capacidades equivalentes às das empresas americanas não é necessário operar no modelo bigger-is-better. Basta redesenhá-la para fazer com menos dados, menos água e menos energia.

Se o setor da IA fosse orientada para o máximo de responsabilidade socioambiental, ela também poderia se alçar como condição de possibilidade para uma economia global pautada no planejamento econômico democrático, de uma maneira que talvez nunca tenha sido possível na história, inclusive para o planejamento racional da água em regiões de alta densidade demográfica etc. Assim, a IA entraria em um ciclo virtuoso de equidade, soberania popular e composições harmônicas e saudáveis entre todas as formas de ser.

Entretanto, sabemos que redesenhar uma técnica ou tecnologia é sempre uma questão sociotécnica. Então, a pergunta que rebate em nossa cara é: quais as razões do modelo do Vale do Silício ser o dominante? A resposta, infelizmente, é simples. Quem controla os data centers controla os dados, e controlá-los é uma forma crucial de obter vantagens econômicas na concorrência capitalista global e de garantir amarras com o imperialismo estadunidense. Ou seja, não há saída séria em responsabilidade socioambiental que não enfrente frontalmente as Big Techs e suas agendas econômicas e políticas. Eu diria mais: não há saída socioambiental nos marcos do capital.

IHU – A IA é boa para quem? Quem molda o presente e o futuro da IA?

Leandro Modolo – Eu começaria dizendo que a IA pode ser interpretada de diversos prismas, e a tendência geral é fatiá-la para que cada pedaço fique com o seu respectivo especialista. E, por razões epistêmicas e institucionais, nenhum especialista dialoga efetivamente com o outro. Então, o cientista de dados lhe daria uma resposta à sua pergunta, o advogado especializado em regulação daria outra resposta, o economista ou o militar operador de drones daria outra, o bioeticista ainda outra…

Com isso em mente, penso que devemos nos esforçar para olhar a IA de um modo sistêmico. Assim, considero que todas as fatias estão sobredeterminadas pelo fato de que a IA é um parque industrial global de produtos e serviços digitais baseado em diversas técnicas e tecnologias, que nos chegam sob inúmeras interfaces e com cadeias globais de valor, profundamente financeirizadas, que vão desde a extração de silício em Cristalina, em Goiás, até o capitalista de risco perscrutando uma nova startup em Cingapura para investir. E que, enquanto tal, ela não é um desenvolvimento natural das próprias tecnologias em prol do “progresso” e “desenvolvimento”. (Esta, por sinal, é uma visão interessadamente enganosa e que alguns reproduzem inocentemente.) Ao contrário, ela é o resultado de um arquipélago de decisões políticas, econômicas e técnicas que se combinaram, por razões que merecem ser investigadas, para solucionar as crises e os conflitos desdobrados ou recrudescidos a partir da crise de 2008 e, mais ainda, com a pandemia de Covid-19.

Nesse sentido, para falar de quem molda a IA seria necessário falar da longa trajetória neoliberal de concentração de poder econômico e político, que na última década atingiu um patamar inédito na história humana nas mãos de menos de dez corporações. Tal como seria preciso falar tanto na guerra comercial quanto na corrida por inovação entre EUA e China, na reascensão do fascismo, na guerra militar da Ucrânia, no genocídio palestino etc. Em suma, seria necessário falar da crise estrutural e da reorganização do sistema capitalista global.

Tanto é que há importantes intelectuais como Yanis Varoufakis, Jodi Dean, Cédric Durand e outros que falam que o que está a caminho não é mais um “novo” capitalismo, mas outro sistema econômico político, o tecnofeudalismo. A despeito das profundas discordâncias que eu possa ter com essa leitura, vale se atentar que ela é valiosa como sintoma da profundidade das transformações que estamos vivendo e que, sobretudo, ainda estamos correndo atrás de explicações razoáveis e seguras.

Dito isso, eu poderia ponderar os ganhos reais e possíveis que a IA traz para humanidade. Eu mesmo sou entusiasta das possibilidades abertas pela IA para a integração cibernética entre as ações clínicas e epidemiológicas na prestação de serviços de saúde – tema central do meu capítulo no livro recente que ajudei a organizar. Todavia, como o tecnossolucionismo é uma ideologia dominante no campo, aqui contigo eu prefiro insistir nos pontos que infelizmente ficam restritos a algumas bolhas que (ainda) não têm visibilidade.

Então, sendo econômico nas palavras, eu diria que, se mantidas as atuais condições de temperatura e pressão, o coeficiente final entre os ganhos e estragos promovidos pela IA é e será o mesmo mês a mês: a IA sendo boa para as classes e os Estados dominantes, isto é, boa para digitalizar a violência contra mulheres, os negros e a população LGBTQIAPN+, boa para precarizar ainda mais as relações de trabalho, boa para avançar a mercantilização dos direitos sociais, boa para os barões do sistema financeiro e, consequentemente, boa para aprofundar a dominação e exploração dos seres humanos sobre outro seres humanos e sobre a Terra.

IHU – Como a sociedade civil e os Estados podem se engajar concretamente na construção de parâmetros para que a IA seja eticamente inclusiva e comprometida com a justiça social e equidade racial e de gênero?

Leandro Modolo – À luz das respostas anteriores, começo dizendo que o cenário de crises nos interpela a problematizar essa divisão tradicional entre “sociedade civil” e “Estado”. Porque nas últimas décadas foi criado um consenso de que o Estado, enquanto máquina pública, funcionaria de modo mais democrático e justo quanto mais ele permitisse à sociedade civil participar de suas instâncias de consultas, discussões e deliberações. Logo, era preciso fortalecer a sociedade civil. Acontece que a chamada “sociedade civil” não é um espaço de harmonia onde todos os grupos de interesses tem a mesma força e poder. Pelo contrário, ela é profundamente conflituosa e desigual. E vimos o Estado ser ocupado pela sociedade civil de cunho corporativo.

Neste exato momento, por sinal, há uma constelação de associações, ONGs, fundações, grupos de pesquisa etc. que se apresentam “em nome de todes”, mas são financiados e/ou assessorados pelas Big Techs e jogam totalmente a favor delas; enquanto há outros agrupamentos que defendem interesses contrários à internet e ao digital corporativo e proprietário que não conseguem nem sequer uma reunião com representantes do governo e cia. Ou pior, quando conseguem, é apenas para serem apenas ouvidos e os governos fazerem os jogos de (dis)simulação da “democracia participativa”, cuja estratégia, já evidente há décadas, é apassivar as demandas com migalhas. Ao fim e ao cabo, as decisões são sempre tomadas no campo dos mais poderosos. E cada dia que passa o grau de dependência em torno das Big Techs aumenta. A democracia em que vivemos é a democracia dos poderosos para (poucos) poderosos. Se por algum motivo estratégico a Microsoft ou a Alphabet resolverem interromper os serviços de e-mail em operação no Brasil, as universidades, empresas e demais instituições públicas param.

Dito isso, respondendo diretamente à pergunta: precisamos construir condições para que os interesses e anseios dos subalternizados estejam profundamente implicados em todo o ciclo de inovação e manutenção. E isso se faz com duas ações em paralelo. Por um lado, diminuindo o poder econômico, político e técnico das Big Techs, por outro fortalecendo os agrupamentos que expressam desde baixo os modos de vida subalternizados, suas iniciativas soberanas. E daí temos um problema estrutural a enfrentar.

Tomemos como exemplo o caso de racismo algorítmico que ocorreu em um plano de saúde nos EUA. Pesquisas revelaram que a IA privilegiou pacientes brancos em detrimento dos negros, mesmo quando estes últimos estavam mais doentes. O algoritmo utilizado não incorporava explicitamente a variável raça em seus critérios de análise. Mas ele se baseava na estimativa dos custos futuros que um paciente deveria gerar para o serviço. Como pacientes negros costumam gerar menos custos ao sistema, devido justamente às desigualdades no acesso aos serviços, o algoritmo subestimou as necessidades de cuidado da população negra. Ao comparar pacientes com a mesma “pontuação de risco”, verificou-se que os negros estavam, na verdade, mais doentes que os brancos, mas eram menos propensos a receber cuidados adicionais. O uso da IA resultou em uma exclusão significativa de pacientes negros, contribuindo para o agravamento das desigualdades raciais existentes.

Pois bem, normalmente quais são as saídas propostas em casos como esses? Em primeiro lugar, fala-se em calibrar as ferramentas com dados menos enviesados. Acontece que, como sabemos, os dados, quaisquer que forem, são tratados inicialmente por humanos, que são pessoas de carne e osso, com visões de mundo particulares, com identidades particulares etc., o que acaba se refletindo diretamente nas escolhas técnicas de tratamento – algo que toda literatura especializada vem mostrando. Logo, os vieses continuam. Em vista disso, em segundo lugar, para diminuir tais vieses, defende-se uma maior diversidade dos trabalhadores, especialmente dos desenvolvedores, cientistas de dados, designers etc., aumentando a representatividade de grupos historicamente minorizados nas equipes de desenvolvimento, como negros, mulheres e LGBTQIAPN+.

Porém, suponhamos então uma representatividade perfeita, isso significa que teremos tais problemas resolvidos? Não. Por que daí ultrapassamos a epiderme do problema e chegamos em um limite estrutural das resoluções oriundas do campo corporativo – mesmo daqueles com “selo de diversidade”.

Como sabemos, os serviços digitais são, acima de tudo, feitos para proporcionar altas taxas de rendimento aos acionistas. E, como também sabemos, o poder de compra está distribuído de forma estruturalmente desigual, seja dentro dos Estados nacionais, seja entre eles no mercado global. Mas, para vender bem, é preciso que paguem bem. Então, como fechamos essa equação? Não fechamos. Na verdade, reforçamos injustiças e desigualdades interestatais e intraestatais. Já estamos cansados de ver isso com as Big Pharmas. Até hoje, por exemplo, não temos investimentos sérios em doenças que afligem populações pobres e com altas taxas de morbimortalidade. Milhares de pessoas morrem todos os anos por não serem encaradas como populações consumidoras rentáveis e lucrativas. E quem são elas em sua maioria? As mulheres e os racializados das classes subalternizadas. Quer algo mais antiético que isso?

Então, sinceramente, mantido o modus operandi, a pergunta mais realista é: quais já são e quais serão as mazelas negligenciadas pelas Big Techs? Sejam quais forem, de uma coisa eu tenho certeza: nelas estarão sobrerrepresentados os negros, as mulheres e os LGBTQIAPN+ das classes subalternizadas, bem como os países periféricos. O velho persiste com cara nova.

IHU – Vocês organizaram Artificial Intelligence and Bioethics: Perspectives (Routledge: 2025). Podem nos explicar do que se trata o livro?

Luiz Vianna Sobrinho, Karla Figueiredo e Leandro Modolo – Agradecemos a pergunta. Nele oferecemos diferentes visões para um introdutório e abrangente olhar sobre o impacto da IA, em termos éticos e bioéticos. A linha mestra do livro é convidar o leitor e a leitora a passearem em um campo de questionamentos, onde se entrelaçam temas como privacidade e proteção de dados, responsabilidade algorítmica e transparência, justiça e equidade, bem como a imprescindível e urgente construção de uma regulamentação à altura do ritmo vertiginoso da inovação tecnológica. Porém, menos do que oferecer respostas prontas, a intenção é abrir caminhos, horizontes de novos conceitos, outras chaves de leitura, zonas férteis para o pensamento.

E, aproveitando a oportunidade, para mais informações, sugerimos a resenha que um de nós (Leandro Modolo) escreveu em sua coluna no Outra Saúde.

Leia mais