A consciência do engenheiro: as grandes empresas de tecnologia diante da guerra. Artigo de Paolo Benanti

Foto: Pxhere

Mais Lidos

  • O Brasil que a República não quis construir. Entrevista com Ivanir dos Santos

    LER MAIS
  • A catolização de Jesus de Nazaré: uma febre que mata. Artigo de Daniel Luiz Medeiros

    LER MAIS
  • Terras Raras rifadas? Entendendo antes que seja tarde. Artigo de Stella Petry

    LER MAIS

Revista ihu on-line

Natal. A poesia mística do Menino Deus no Brasil profundo

Edição: 558

Leia mais

O veneno automático e infinito do ódio e suas atualizações no século XXI

Edição: 557

Leia mais

Um caleidoscópio chamado Rio Grande do Sul

Edição: 556

Leia mais

04 Mai 2026

O que o caso do Google demonstra é o seguinte: na era da Inteligência Artificial, a responsabilidade social corporativa não pode mais se limitar a medir a pegada de carbono ou o índice de diversidade do Conselho de Administração. Ela precisa confrontar questões de filosofia política e a ética da guerra.

O artigo é de Paolo Benanti, publicado por Avvenire, 30-04-2026. 

Paolo Benanti é teólogo italiano e franciscano, além de professor da Pontifícia Universidade Gregoriana, em Roma, e acadêmico da Pontifícia Academia para a Vida. Em português, é autor de Oráculos: entre ética e governança dos algoritmos (Unisinos, 2020).

Eis o artigo.

A carta aberta que centenas de funcionários do Google endereçaram ao CEO Sundar Pichai — instando-o a rejeitar qualquer acordo que tornasse os sistemas de Inteligência Artificial da empresa disponíveis para cargas de trabalho confidenciais do Pentágono — não é apenas um episódio de protesto interno. É um documento denso que levanta urgentemente a questão da subjetividade moral das grandes empresas de tecnologia em uma era na qual a Inteligência Artificial se tornou em todos os aspectos, um recurso estratégico de poder.

Os signatários escrevem que sua proximidade com essa tecnologia gera uma responsabilidade: denunciar e prevenir os usos mais perigosos e desumanos dos sistemas que ajudam a construir.

É uma formulação que lembra, sem nomeá-la, a antiga distinção kantiana entre agir em conformidade com o dever e agir por dever: não basta não causar dano; é necessário, quando se tem a capacidade e a proximidade, opor-se ativamente à possibilidade do mal. A consciência moral, aqui, não é propriedade exclusiva do indivíduo, mas é transferida — ou pelo menos alega-se que o seja — para a comunidade profissional que compartilha o conhecimento técnico sobre o que está em jogo.

A notícia de que o Google está negociando com o Departamento de Defesa dos EUA para a implantação de Inteligência Artificial em contextos confidenciais faz parte de uma mudança de paradigma que merece uma análise cuidadosa. Após anos em que grandes plataformas tecnológicas se apresentaram como infraestruturas neutras — espaços de troca e conexão, não atores políticos — a corrida armamentista da IA ​​dissolveu essa pretensão.

A OpenAI já assinou um acordo com o Pentágono, que se comprometeu a não usar essa tecnologia para vigilância doméstica em massa ou para o controle direto de sistemas de armas autônomos. Essa formulação, precisamente em sua vagueza, revela o quão contestado permanece o perímetro ético e como as fronteiras entre o uso legítimo e o inadmissível ainda carecem de um arcabouço legal comum. É aqui que o caso do Google adquire seu valor paradigmático para a teoria da responsabilidade social corporativa. Durante décadas, a responsabilidade corporativa tem sido medida por meio de eixos relativamente codificados: respeito aos direitos dos trabalhadores, sustentabilidade ambiental, governança transparente, equidade para com os acionistas e comunidades locais. A relação com o poder militar e operações classificadas, no entanto, constitui uma nova fronteira, para a qual ainda não existem estruturas regulatórias maduras ou práticas de relatório consolidadas.

Quando uma empresa privada firma um acordo para fornecer capacidades cognitivas artificiais a um aparato de segurança nacional que opera, por definição, além do controle público, ocorre uma forma de delegação que excede as categorias tradicionais de governança corporativa. Os funcionários do Google entenderam isso e deixaram claro: disponibilizar sistemas de Inteligência Artificial para usos militares classificados significa ceder o controle sobre os resultados finais dessa tecnologia a um ator — o Estado em sua dimensão de segurança — que não adere aos mesmos princípios de transparência e responsabilidade aos quais a empresa está sujeita, pelo menos em princípio, ao público.

Nesse sentido, a carta não é meramente um ato de resistência interna: é uma tentativa de redefinir os limites da responsabilidade corporativa a partir de dentro, afirmando que ela não se limita a acionistas ou clientes, mas se estende à qualidade dos usos que a tecnologia produzida possibilita no mundo. A questão das armas autônomas letais e da vigilância em massa, explicitamente mencionada na carta, não é incidental, mas estrutural. A Inteligência Artificial aplicada a sistemas de armas autônomas levanta a questão daquilo que Hannah Arendt reconheceria como uma forma de banalidade do mal: a delegação do julgamento — incluindo o julgamento sobre a vida e a morte — a processos algorítmicos desprovidos da capacidade reflexiva que, sozinha, pode dar conta do mal cometido. Isso não é ficção científica. Já é uma realidade operacional em vários teatros de conflito, e a questão de quem deve ser responsabilizado pelas consequências de uma decisão letal automatizada permanece sem uma resposta satisfatória no direito internacional.

O que o caso do Google demonstra é o seguinte: na era da Inteligência Artificial, a responsabilidade social corporativa não pode mais se limitar a medir a pegada de carbono ou o índice de diversidade do Conselho de Administração. Ela precisa confrontar questões de filosofia política e a ética da guerra: quem autoriza, quem controla, quem é responsável. Empresas que produzem e gerenciam sistemas de inteligência artificial de alto desempenho se encontram, voluntária ou involuntariamente, em uma posição de corresponsabilidade pelos usos desse poder cognitivo. Ignorar isso seria não apenas um erro ético, mas um cálculo estratégico míope: a carta dos funcionários do Google alerta que "uma escolha errada neste momento causaria danos irreparáveis ​​à reputação, aos negócios e ao papel do Google no mundo". É um tema que fala diretamente à gestão. Mas as consequências são maiores do que qualquer relatório trimestral.

Leia mais