O escritor e filósofo Rodrigo Petronio reafirma, em conferência realizada pelo IHU, o quanto a vida humana está cercada pelas inteligências artificiais
Nos filmes hollywoodianos de ficção científica, o fim da vida humana na Terra geralmente está associado à destruição causada pelas inteligências artificiais após sua ascensão ao poder. Essa maneira de pensar acaba nos cegando a uma realidade que nos cerca: as inteligências artificiais já fazem parte da nossa vida. “Se eu abro meu aplicativo bancário ou entro numa loja para fazer compras, estou sendo rastreado, parametrizado, com dados comportamentais sendo captados. Meu feed de notícias capta minhas fisionomias, meus traços faciais, para biometrizar essas informações. Eu tenho certos padrões de consumo, e as IAs rastreiam esses padrões para me oferecer promoções, por exemplo. Estamos o tempo todo dentro dessas padronizações, que hoje convencionamos chamar de algoritmos”, afirma Rodrigo Petronio.
Para debater os conceitos de Inteligência Artificial e suas inserções na vida humana contemporânea, Petronio proferiu a palestra “O que vem depois do humano. A tecnologia e as revoluções da vida”, parte do ciclo de estudos Inteligência Artificial. Potencialidades, desigualdades e o risco existencial humano, promovido pelo Instituto Humanitas Unisinos – IHU.
Na conferência, o escritor e filósofo comentou sobre a importância de diferenciar Inteligência Artificial (campo de conhecimento) de Inteligências Artificiais (práticas tecnológicas de grande, média ou pequena escala), além de, ao dialogar com pensadores como Edgar Morin, Stuart Russell, Luciano Floridi e outros, trazer as principais discussões e complexidades do campo sobre o tema das IAs.
Petronio destaca o papel do capitalismo e a utilização de inteligências artificiais feitas pela extrema-direita no mundo inteiro. Ao mesmo tempo que há iniciativas inovadoras e renovadoras em diversos campos, a ferramenta também é usada para propagar destruição. “Enquanto investigamos a IA em níveis de alta sofisticação e complexidade, por exemplo, na questão da consciência e da mente, ao mesmo tempo vemos essas tecnologias sendo capturadas por movimentos como a extrema-direita, visando mais devastação e redução, o que eu chamaria de ‘anticomplexidade’. Esse é um dos dilemas que me exaure no estudo das IA”, comenta.
A seguir, publicamos a conferência de Rodrigo Petronio no formato de entrevista.
Escritor e filósofo, Rodrigo Petronio é professor titular da Faculdade de Comunicação da Fundação Armando Álvares Penteado – FAAP. Desenvolve pós-doutorado no Centro de Tecnologias da Inteligência e Design Digital – TIDD/PUC-SP sobre a obra de Alfred North Whitehead e as ontologias e cosmologias contemporâneas. É também doutor em Literatura Comparada pela Universidade Estadual do Rio de Janeiro – UERJ. Possui dois mestrados: em Ciência da Religião, pela PUC-SP, sobre o filósofo contemporâneo Peter Sloterdijk, e em Literatura Comparada, pela UERJ, sobre literatura e filosofia na Renascença. Entre suas publicações poéticas, destacamos História natural (Gargântua, 2000), Assinatura do sol (Gêmeos R, 2005) e Pedra de luz (A Girafa, 2005). Atualmente, divide com Rodrigo Maltez Novaes a coordenação editorial das Obras Completas de Vilém Flusser pela editora É Realizações.
Pelo IHU, Petronio publicou Mesoceno. A Era dos Meios e o Antropoceno, Cadernos IHU ideias número 339; Yuval Noah Harari: pensador das eras humanas, Cadernos IHU ideias número 329; e Desbravar o Futuro. A antropotecnologia e os horizontes da hominização a partir do pensamento de Peter Sloterdijk, Cadernos IHU ideias número 321.
Rodrigo Petronio | Foto: Arquivo Pessoal
IHU – O que é a Inteligência Artificial e como ela se relaciona com outras áreas de conhecimento?
Rodrigo Petronio – Quando falamos de Inteligência Artificial (IA), há muitas controvérsias e muitas definições possíveis. Eu costumo dizer que a IA é uma área do conhecimento, uma área adjacente que possui conexões com a Teoria da Computação e com a computação propriamente dita, não apenas em termos práticos de implementação, mas também como uma área do conhecimento. Ela também possui conexões com a filosofia da mente e, hoje, com as chamadas teorias cognitivas. Além disso, tem relação com a robótica, que também é uma área prática, mas igualmente um campo de estudos.
Desse ponto de vista, gosto de frisar que a Inteligência Artificial é um grande pilar do conhecimento humano e não se restringe apenas às suas implementações ou técnicas que convencionamos chamar de IA, embora estas estejam em destaque atualmente. São essas tecnologias que estão promovendo uma discussão e uma mudança significativa no cenário atual, além de serem decisivas para o futuro. Prefiro usar o termo “Inteligência Artificial” no singular, referindo-se à área de conhecimento, e “inteligências artificiais” no plural, para designar essa miríade de operacionalizações, práticas e tecnologias, sejam elas pequenas, sejam elas grandes ou gigantescas, que servem para otimizar informações.
Apresento minha definição de Inteligência Artificial dentro desse contexto, partindo dos clássicos, como Marvin Minsky, e desde os ciberneticistas dos meados do século XX, quando o tema começou a ser mais discutido. Não há uma definição padrão de IA, justamente porque existe um dilema sobre quais critérios utilizar para definir tanto a área do conhecimento quanto os seus aspectos práticos e os impactos gerados por eles.
Tomo como ponto de partida uma definição de Luciano Floridi, um dos pesquisadores mais importantes no campo da IA atualmente. Ele afirma: “Tudo que é verdadeiramente inteligente nunca é artificial, e tudo que é artificial nunca é inteligente”. Essa proposição de Floridi é interessante e curiosa, mas eu gostaria de propor alternativas a essa ideia. Não digo que ela não tem seus méritos – volto a dizer, Floridi é uma autoridade no campo da IA. No entanto, a premissa dele faz sentido ao sugerir que a natureza já é, por si só, um processo hipercomplexo, e que a Inteligência Artificial seria sempre uma redução dessa complexidade frente às estruturas naturais extremamente complexas.
Nesse sentido, essa proposição é interessante, pois parte do pressuposto de uma natureza hipercomplexa, o que de fato é. Nosso conhecimento sobre a natureza, seja técnico-científico, seja de outras formas, é sempre precário e, de certa maneira, reducionista. Entretanto, vejo que essa visão disjuntiva entre o artificial e o natural gera alguns problemas conceituais que, com o tempo, acabam se tornando uma “bola de neve” e nos levam a becos sem saída. Minha visão alternativa à de Floridi é a de uma maior permeabilidade entre o natural e o artificial.
Para exemplificar como essa disjunção é difícil de ser demarcada, gosto de relembrar o exemplo da professora Lucia Santaella sobre o aparelho fonador humano. O aparelho fonador é natural? Obviamente que não é. A estrutura fonológica e fonética, como as fricativas linguodentais, ou seja, a própria articulação fonética e fonológica das chamadas “línguas naturais” não tem nada de natural. Elas foram esculpidas ao longo do tempo. Talvez os primeiros rudimentos do aparelho fonador tenham sido moldados ainda numa fase pré-humana, com as primeiras articulações dos primatas, entre dois a sete, talvez até nove, milhões de anos atrás, antes mesmo da especiação que deu origem aos hominídeos e, por conseguinte, ao Homo sapiens.
Isso nos leva à questão: o que seria, então, natural? As chamadas línguas naturais não têm nada de “natural”. Elas foram esculpidas e trabalhadas ao longo do tempo. Se usássemos uma máquina do tempo e trouxéssemos um bebê Homo sapiens de 60 mil anos atrás para aprender junto com um bebê atual, o nível de aprendizagem seria totalmente discrepante. Isso porque não é algo natural. Houve microinjeções quase infinitas de informações ao longo da evolução. Essas microinjeções de informações no cérebro humano e no organismo como um todo geraram uma inteligência distribuída que envolve o corpo inteiro, e não apenas o cérebro. Essa inteligência distribuída possui uma memória, que é reativada e atualizada sempre que uma criança aprende uma palavra hoje.
Se falarmos sobre o que seria “natural” nesse processo, não faz sentido considerar que os dados estariam pressupostos, como se houvesse uma caixinha no cérebro onde todas essas microinformações já estivessem estabelecidas.
Quando falo das revoluções da vida, me refiro também à ideia de que haveria uma distribuição muito gradativa entre o plano do mundo artificial e o plano do mundo natural. Há muitos motivos pelos quais defendo isso. Um deles é justamente o chamado antropocentrismo. Quando pensamos que o artificial é sempre uma redução humana da natureza, já está pressuposta, nesse enunciado, uma visão extremamente antropocêntrica. Dessa forma, privamos todos os outros regimes de vida, todos os outros seres vivos, de participarem, também a seu modo, de formas de artificialização da natureza, dizendo que apenas o humano é detentor de uma técnica capaz de artificializar a natureza.
Isso não se observa na realidade. Podemos dar exemplos de como já temos processos na natureza que podem ser entendidos como artificiais, ou seja, que não são processos propriamente internos ou previstos pela própria natureza, mas meios pelos quais ela resolve problemas. E essa solução de problemas é complexa. Quando imaginamos que se trata de uma solução puramente natural, podemos cair em dilemas que nos levam a becos sem saída.
A definição que venho trabalhando é, por vezes, contraintuitiva e gera alguns ruídos, mas é a seguinte: artificial é todo ser que altera seu meio para minimizar a entropia. Isso está inspirado no filósofo Vilém Flusser, que entende tecnologias e técnicas como formas neguentrópicas, ou seja, formas que negam a entropia, entendendo entropia como a tendência de todos os sistemas do universo à perda de energia, à dissipação, sendo os sistemas dissipativos aqueles que estão em graus crescentes de perda de energia. Isso ocorre na vida como um todo, pois o universo se apresenta de forma entrópica.
Portanto, o artificial seria todo modo pelo qual o universo consegue reter energia, revertendo os processos entrópicos através da criação de mecanismos e dispositivos neguentrópicos.
Hoje, nas teorias da complexidade, essa oposição entre entropia e neguentropia tem sido questionada. Temos o conceito de sintropia. Não se trata simplesmente de uma perda de energia ou da reação à perda, mas de processos complexos e não lineares por meio dos quais tanto a perda quanto o armazenamento de energia seriam relativamente convergentes, retroalimentando-se mutuamente. Dentro dessa visão neguentrópica ou sintrópica, podemos pensar nas relações entre o artificial e o natural. A natureza está sempre operando a partir desses processos sintrópicos para tentar se preservar. Como diria Espinosa, “todo ser quer se preservar em si mesmo”, e isso é uma teoria da natureza. Essa natureza também usa esses meios.
O conceito de inteligência, com o qual venho lidando, é o de uma inteligência distribuída, que obviamente não é exclusivamente humana. Na área de teoria da comunicação, pelo menos nas bibliografias que utilizo, não trabalhamos com a noção de uma inteligência estritamente humana. Para mim, inteligência são todos os meios de armazenar, otimizar e transmitir informações.
Por exemplo, uma planta que escala uma árvore em busca de luz, ou o processo fúngico, em que os fungos criam redes de comunicação. Os insetos também conseguem otimizar a informação do seu DNA, tornando-a cada vez mais eficaz no ambiente em que vivem, transmitindo essas informações aos seus descendentes. No fundo, a natureza é repleta de processos inteligentes. Quando falo de inteligência, penso de maneira extremamente pragmática, como modos de armazenar e transmitir informações.
É preciso tomar muito cuidado aqui, porque essa acepção de inteligência com a qual estou trabalhando não se refere a um agente inteligente, e muito menos a um metafísico inteligente com intencionalidade, que teria criado seres inteligentes. A ideia de uma inteligência da natureza com esse viés seria um completo absurdo, pois necessariamente cairíamos na ilusão criacionista de um “Deus inteligente” ou de uma intencionalidade distribuindo inteligência ao longo do universo, centralizando esses processos em si. Não trabalho com essa hipótese. Quando falo de inteligência, refiro-me a um modo extremamente pragmático, pensando a partir das teorias da complexidade, como as de Humberto Maturana, Francisco Varela, Jean-Pierre Dupuy e Edgar Morin, e de sistemas complexos auto-organizacionais.
Sistemas complexos que se auto-organizam precisam, necessariamente, armazenar, otimizar e transmitir informações. Eles serão mais “inteligentes” quanto mais conseguirem otimizar esses processos. Isso não depende de nenhuma intencionalidade, racionalidade ou metainteligência agindo e operando em toda a rede da natureza ou do universo. Trata-se, simplesmente, da percepção de que o universo não é totalmente desprovido de sentidos ou de contingências. Assim, a inteligência no universo é contingente. Animais, vegetais e até mesmo seres minerais – considerando processos moleculares, físicos, químicos e biológicos –, à medida que se auto-organizam, possuem algum nível de inteligência. Esse é o ponto que gostaria de abrir para expandirmos e pensarmos como essas revoluções da vida se dariam, a partir desse primeiro critério.
Pensando a partir desse ponto de vista, começamos a alterar alguns pressupostos. Passamos a focar em dinâmicas comunicacionais, relacionadas à suspensão ou indeterminação da dicotomia entre natural e artificial, orgânico e inorgânico, material e imaterial, sujeito e objeto, subjetividade e objetividade, alma e corpo, matéria e mente. Essas dualidades, no fundo, retroagem às origens do pensamento ocidental. Hoje, no século XXI, para enfrentarmos os dilemas e desafios da era da Inteligência Artificial, não há como mantermos esses dualismos.
Pensando também a partir de alguns pesquisadores, como Giovani Holanda e Cláudia Pfeiffer, dois brasileiros importantes na área, ao fazer essa retrospecção sobre o que é a Inteligência Artificial, em primeiro lugar, é necessário definir a inteligência e os níveis e graus de performance desses agentes inteligentes. Seria preciso analisar a capacidade de armazenamento, otimização e transmissão de informações. Alguns autores definem a inteligência como a capacidade de um agente atingir objetivos em uma ampla gama de ambientes. Essa é uma definição muito boa, dada por Legg e Hutter, dois autores importantes no campo.
A partir disso, teríamos uma miríade de definições de Inteligência Artificial relacionadas à capacidade de uma entidade funcionar propriamente de acordo com a previsão de seu ambiente. Aqui, o termo "previsão” é central. Saímos, então, de uma reflexão mais ampla e epistêmica sobre a IA como área de conhecimento e começamos a nos direcionar para uma visão mais específica das tecnologias que chamamos de IAs, ou inteligências artificiais. Uma das bases, ou pedra angular dessas IAs, é a capacidade preditiva. A capacidade preditiva está relacionada a muitos fatores, e já mencionarei alguns deles, mas é uma das chaves da IA. Isso porque, basicamente, a IA funciona armazenando informações, e quanto maior o volume de informações armazenadas, maior é o cruzamento de dados desses diversos domínios, sejam eles humanos, sejam eles não humanos. Quanto maior o volume de armazenamento e maior a otimização dessas informações, melhores serão a transmissibilidade e a resposta a uma determinada demanda ou objetivo.
IHU – Estamos cercados por inteligência artificial. De que formas ela está inserida na nossa vida e como ela se comporta como ferramenta?
Rodrigo Petronio – As IAs são instrumentos, ferramentas. Nessa dimensão mais específica, são instrumentos e ferramentas muito específicos, até “cretinos”, como diria Vilém Flusser. As máquinas são “cretinas”, até muito “cretinas”, porque elas estão sempre agindo de acordo com as informações que lhes são inseridas, agindo de acordo com os objetivos que lhes são imputados, ou seja, designados. Elas agem conforme o volume de informação que conseguem processar, treinando e absorvendo dados dos ambientes – no caso, ambientes digitais. O importante é como elas conseguem otimizar essas informações, cruzando dados e estabelecendo padrões, o que chamamos de estrutura de parametrização de dados, e como cumprem certos objetivos que foram designados pelos humanos.
Isto é fundamental: as IAs são instrumentos, ferramentas, sempre operando dentro de decisões muito específicas. Nesse processo, a predição é essencial, porque, por exemplo, se eu atuo no mercado financeiro, as IAs vão me ajudar a cruzar o maior volume de dados possível, de todas as bolsas e ativos econômicos espalhados pelo mundo, analisando todos os agentes e agências financeiras, e fornecendo predições, ou seja, revelando vieses futuros. Essa característica preditiva é uma das chaves das IAs, porque elas trabalham em função do futuro. Isso traz impactos filosóficos, mas o ponto é que as IAs têm um viés voltado para o futuro. Elas estão sempre buscando predições.
Se eu abro meu aplicativo bancário ou entro numa loja para fazer compras, estou sendo rastreado, parametrizado, com dados comportamentais sendo captados. Meu feed de notícias capta minhas fisionomias, meus traços faciais, para biometrizar essas informações. Eu tenho certos padrões de consumo, e as IAs rastreiam esses padrões para me oferecer promoções, por exemplo. Estamos o tempo todo dentro dessas padronizações, que hoje convencionamos chamar de algoritmos. Os algoritmos são essas parametrizações de dados feitas por IAs, que ajudam os sistemas a reconhecer certos vieses. Claro, estou sempre agindo no presente, mas esse presente está sempre enviesado em direção ao futuro, porque as IAs já cruzam os dados para saber, por exemplo, quais outros livros podem me interessar depois de uma compra.
Uma das bases das IAs é a noção de aprendizado, o chamado machine learning, ou aprendizado de máquina. As redes informacionais e computacionais, quanto maior o volume de armazenamento, maior a otimização e melhor a transmissibilidade das informações. Esse processo está ancorado em parametrizações e algoritmos. Assim, quanto mais as máquinas conseguem aprender por si mesmas, mais autônomas elas se tornam. Esse é um conceito importante: o processo de autonomização, no qual as máquinas começam a operar de maneira autônoma em relação aos humanos, precisando cada vez menos de direcionamento humano para atingir seus objetivos.
Quanto mais essas máquinas aprendem, maior é a sua autonomia, permitindo que escalem em inteligência e desempenho. Esse é o cenário quando falamos de IAs. Apenas um parêntese importante: quando falamos de autonomia das máquinas e do aprendizado profundo (deep learning), referimo-nos ao quão mais profunda é a rede de interconexões desses zilhões de informações que circulam pelo mundo. Quanto mais profundo o aprendizado, maior a otimização e maior a inteligência dessas IAs. O deep learning é, assim, um dos caminhos mais fecundos no estudo de IAs.
Agora, isso nos leva a outro ponto: a questão da consciência. Inteligência, no sentido pragmático, é executar tarefas, fazer predições, armazenar, otimizar, processar e transmitir informações, além de realizar objetivos designados em sistemas operacionais. Tudo isso é muito específico. A questão é: esse nível de autonomização pode pressupor um nível de consciência? Hoje, o imaginário distópico das IAs dominando o mundo, como vemos na ficção científica, é muito comum. A ficção especula futuros possíveis, mas às vezes gera um desserviço ao ancorar nossa visão nesse imaginário e nos distanciar da realidade.
Quando falamos de IAs totalmente autônomas, robôs que dominariam a humanidade, estamos falando de algo que se chama “Inteligência Artificial Geral” ou IAG. Isso ainda não existe e vai demorar muito para existir. A IAG pressupõe uma rede homogênea e interconectada de todos os sistemas operacionais e de todas as IAs da Terra, operando em uníssono com objetivos comuns. Esse cenário não se verifica, e por mais que a tecnologia avance, ele provavelmente nunca existirá, segundo alguns autores. As IAs, mesmo as mais avançadas, são específicas e pertencem a empresas que competem entre si. Há uma “guerra cibernética” entre empresas, mercados, e missões de futuro, o que impede a existência de uma IAG.
O ChatGPT, por exemplo, está longe de ser uma IAG. Ele é uma IA específica, pertencente a uma empresa, e opera dentro de uma modularidade – que, no caso da consciência humana, se refere à linguagem verbal. Mesmo que ele realize tarefas complexas, ele está limitado a esse registro específico. Portanto, esse imaginário distópico de uma IA hackeando a mente humana e dominando o mundo pertence mais à ficção científica do que à realidade.
Entretanto, o que podemos pensar é uma certa homogeneização de um tipo de capitalismo das Big Techs, e uma maneira pela qual algumas dessas grandes empresas estão concentrando cada vez mais capital e poder. Elas orientam e enviesam suas ações de forma muito específica para determinados objetivos que podem ser comuns, ainda que sejam concorrentes entre si.
Veja, são coisas diferentes. Eu não estou falando de uma IAG, mas de uma possível capilarização do capital. Essa capilarização estaria a serviço de Big Techs cada vez mais poderosas e menos numerosas, que concentrariam mais poder e riqueza, impactando diretamente os usuários. Isso pode gerar um cenário semelhante ao de uma IAG.
Coloco isso porque o tema envolve diversos cenários e questões para desfazer algumas ideias simplistas. Às vezes, imaginários catastróficos podem gerar um desserviço, nos fazendo perder de vista coisas triviais que não são necessariamente catastróficas. Estamos cercados de IAs por todos os lados: no aplicativo do banco, no reconhecimento facial, no corretor ortográfico, no Google Translator. Portanto, não podemos analisar todo o processo das IAs à luz da visão de uma IAG. Claro, esse cenário de uma IAG catastrófica é possível, mas ainda distante.
Alguns autores, como Nick Bostrom e Raymond Kurzweil, chamados de “singularistas”, acreditam na ideia da singularidade. A singularidade seria o momento em que as novas tecnologias superariam a condição humana, levando a vida a um novo código. Penso aqui em biotecnologia, síntese genética, vida sintética e graus de artificialização cada vez maiores. No entanto, não sou singularista. Acredito que isso aconteceria de forma gradativa, com uma revolução da vida mais ancorada em impactos ecológicos, econômicos, cibernéticos e psicológicos, muito mais do que em supercomputadores que suspenderiam a condição humana ou hackeariam a mente humana.
Aqui, faço algumas considerações sobre o processo como um todo, abordando conceitos como interpretabilidade, explicabilidade, entendibilidade, inteligibilidade e compreensibilidade. Resumindo: interpretar dados envolve subjetividade; explicação diz respeito à forma como um dispositivo funciona; entendibilidade busca entender as relações subjacentes; a inteligibilidade vai além, compreendendo o todo; e a compreensibilidade envolve absorver o impacto da tecnologia em nossa vida de maneira mais profunda.
Nesse sentido, a implementação das IAs nem sempre segue esse processo completo. Muitas vezes, aprofunda-se apenas um desses conceitos, e a compreensibilidade acaba sendo deixada de lado. Quem, hoje, em uma startup ou Big Tech, está de fato considerando a vida humana e não humana em suas criações tecnológicas? Uma visão compreensiva, que considera todos os agentes vivos e não vivos, está muitas vezes distante da realidade.
Isso nos leva a uma clivagem importante ao pensar sobre tecnologia e ética tecnológica: a especificação das melhores ações técnicas sempre ocorre a posteriori. Não há como definir a natureza de uma técnica ou suas ações potenciais de forma apriorística. Em filosofia da tecnologia, temos visões deontológicas e consequencialistas. A visão deontológica tenta filtrar a produção técnica com base em propriedades racionais do humano, o que é praticamente impossível. Já a visão consequencialista, muito mais presente no capitalismo, avalia os impactos da técnica após sua implementação.
Um exemplo clássico é o desenvolvimento da bomba atômica. Elementos químicos são combinados sem prever, inicialmente, o resultado final. Apenas após o experimento é que se compreende o impacto, muitas vezes catastrófico. Isso levanta a questão de como adequar a técnica à ética, um tema fascinante para o direito e a filosofia.
O antropólogo e filósofo Bruno Latour propôs o “princípio de simetria generalizada”, que sugere que todos os agentes sociais – humanos e não humanos – devem ser vistos de forma simétrica, sem hierarquias. O antropocentrismo, com suas consequências climáticas, tecnológicas e ecológicas, está baseado na assimetria entre humanos e natureza. O movimento de correção dessas assimetrias, muitas vezes violento, está acontecendo diante de nós, especialmente no contexto das mudanças climáticas.
Por fim, a fronteira do humano não está dada. O humano está sempre “por vir”, nunca completamente definido. A técnica e as tecnologias estão cada vez mais alterando o que chamamos de humano, produzindo seres cada vez mais hibridizados: humanos e máquinas, humanos e animais, natureza e artifício. Gilbert Simondon definiu que o humano não está nem sobre nem sob os objetos; ele está entre eles. O termo que cunhei para isso é “entredade” – o humano não é uma entidade natural, mas uma “entredade” natural e artificial. Ele habita o entre, é um ser intersticial, sem uma definição clara na natureza ou no mundo artificial. Isso é algo que as teorias transumanistas têm explorado, abrindo novas possibilidades para o futuro da humanidade.
Há um devir humano nas revoluções da vida, que são simultaneamente artificiais e naturais. Estamos agora à beira de uma nova revolução, protagonizada pelas IAs, que estão emergindo em colaboração, solidariedade e até em oposição ao humano. Já vemos esse protagonismo emergente das IAs. Apenas para esclarecer, na inovação costumamos trabalhar com a noção de sinais – fortes e fracos – para determinar se uma tendência se consolidará ou não. As IAs já mostraram sinais fortes e fracos desde a computação de Turing e a cibernética, no século XX, e tiveram algumas oscilações. No entanto, entendo que agora o sinal forte se consolidou, não havendo mais sinais fracos. A tendência é que a tecnologia escale ainda mais, a menos que ocorra uma hecatombe, uma catástrofe planetária, ou que as mudanças climáticas causem tamanhos danos que levem a uma retração da expansão técnica. Ou, quem sabe, que a questão técnica das IAs seja potencializada para o bem comum.
É triste pensar nisso, mas parece que o ser humano precisa de uma catástrofe para enxergar o óbvio. Isso é recorrente na história e possui fundamentos antropológicos e até evolucionários darwinianos. O ser humano é um animal catastrófico; para enxergar a si mesmo no espelho, ele precisa destruir algo ou, pelo menos, chegar à iminência da destruição. Talvez isso possa ser evitado se considerarmos o conceito de IA benéfica proposto por Stuart Russell, um dos maiores pensadores de IA da atualidade.
IHU – Quais são os três pontos-chave identificados por Stuart Russell na relação entre humanos e as inteligências artificiais?
Rodrigo Petronio – Russell identifica três pontos importantes na nossa relação com as IAs. O primeiro é a negação, típica daqueles que não veem problemas nas novas tecnologias. Esse discurso é semelhante ao dos que dizem que os acendedores de lampião do século XIX perderam seus empregos com a chegada da eletricidade, como se fosse algo natural que empregos sejam realocados com novas tecnologias.
Esse argumento é falacioso. Ao longo da história, de fato, houve perdas de emprego com mudanças tecnológicas, mas quem compara o impacto das IAs com tecnologias anteriores não compreende sua singularidade. As IAs não são apenas tecnologias reprodutivas; elas são replicadoras. A diferença é crucial: enquanto tecnologias reprodutivas apenas produzem objetos, as IAs atuam sobre o próprio código da informação e da linguagem, que são centrais para o pensamento humano. Assim, as IAs questionam a própria estrutura dos sistemas, e isso representa uma mudança qualitativa, não apenas uma acomodação.
O segundo ponto de Russell é a deflexão, que se refere àqueles que reconhecem os impactos indesejáveis, mas acreditam que há questões mais urgentes para focar. Esse argumento é semelhante ao dos ecocéticos, que, embora não neguem o impacto humano nas mudanças climáticas, minimizam a questão ao afirmar que não há evidências definitivas. Contudo, mesmo que os eventos climáticos extremos não fossem de origem humana, seríamos afetados por eles. Da mesma forma, ignorar os problemas causados pelas IAs só acumula um “resíduo” que pode se tornar incontrolável.
O terceiro ponto é a simplificação, que reflete a crença em soluções instantâneas para problemas complexos. Há discursos que apontam, por exemplo, que a extração de lítio para fabricar computadores é parte do problema ambiental, ao mesmo tempo que esperamos que as IAs resolvam questões como a poluição. Essa contradição mostra a assimetria entre os desafios e as soluções propostas.
Finalmente, Russell propõe uma crítica à própria estrutura da IA. Ele argumenta que a definição axiomática de IA, como um sistema que otimiza, armazena e transmite informações para realizar objetivos específicos, é incompleta. Para ser verdadeiramente inteligente, uma IA precisa realizar nossos objetivos, e aqui reside a complexidade: quem somos “nós”? Esse “nós” serve a quem? Às Big Techs? Aos governos? O simples fato de inserir um “nós” nessa equação já implica uma reflexão ética, pois precisamos definir quem está incluído e quem está marginalizado.
Assim, o desafio de tornar as IAs verdadeiramente inteligentes é alinhar seus objetivos aos nossos, de forma inclusiva e solidária. Quanto mais inteligentes as IAs forem, maior será sua capacidade de inclusão e solidariedade.
IHU – A IA é o resultado de um braço evolutivo tecnológico, isto é, o ocidental. Qual a relevância de ideias como a tecnodiversidade cosmotécnica de Yuk Hui para minimizar as externalidades negativas da IA? É possível falar de IA decolonial ou de movimentos tecnológicos que a negam? [1]
Rodrigo Petronio – As IAs são um ponto de culminância de um processo ocidental relacionado à expansão colonial do Ocidente, algo que já dura cerca de dois mil anos, talvez mais. Nesse contexto, o caso do Yuk Hui, filósofo chinês, é central para a reflexão que venho desenvolvendo. A questão trazida por Yuk é essencial para pensarmos uma “tecnodiversidade”. Resumindo bastante os argumentos – que são complexos e abrangem várias áreas – assim como existe a biodiversidade do ponto de vista darwiniano, podemos pensar que a biodiversidade é uma das leis da vida. A vida tende sempre a produzir seres cada vez mais diferentes. O processo de diferenciação é imanente e quase inerente aos processos vivos. Então, por que não pensar em uma tecnodiversidade?
Yuk propõe essa reflexão ao pensar o conceito de “cosmotécnica”. Esse conceito é central porque traz uma peculiaridade na concepção de técnica. Ele aborda a técnica de um ponto de vista cognitivo muito sofisticado e interessante. Quando fala de técnica, ele não está apenas pensando em tecnologias no sentido convencional, como máquinas, nem nas novas tecnologias digitais e cibernéticas. Ao pensar a técnica, ele considera, por exemplo, que um pintor de paisagens chinês ou um poeta da poesia clássica, como Du Fu, ao descreverem uma paisagem, estão aplicando uma técnica.
A técnica aqui não é apenas a pintura ou a poesia em si, mas um modo de modelar a natureza. Quando o pintor ou poeta chinês descreve montanhas que parecem flutuar no horizonte, com linhas que se esvaem e pessoas minúsculas no meio de um grande vale, ele está aplicando uma técnica de modulação da natureza. Essa modelação não se limita a ferramentas físicas, como o pincel ou a caligrafia. Mesmo sem esses instrumentos, existe um processo cognitivo de modelização.
Yuk chama isso de “cosmotécnica”. A cosmotécnica é uma forma de modelar uma visão global da natureza. Ela inscreve a natureza como natureza, desenhando os esquemas fundamentais da existência. No entanto, Yuk não faz uma crítica ingênua, afirmando que não podemos modelar nossa cognição a partir de celulares ou outras tecnologias. Ele argumenta que o movimento de ocidentalização do mundo gerou o que ele chama de “sincronização”. A sincronização é um processo pelo qual certas técnicas – ou cosmotécnicas – se tornaram hegemônicas e dominantes, extinguindo outras cosmotécnicas em diferentes partes do mundo.
O processo de “contrassincronização”, por sua vez, é um movimento contra-hegemônico, que poderíamos chamar de um processo “contracolonial”. Ele se refere a uma forma de desestruturar a hegemonia de certas técnicas em favor de uma maior pluralidade de técnicas e cosmotécnicas. O modo como os Yanomami, ou qualquer outra etnia indígena da Amazônia, lidam com as plantas, o clima e as propriedades físicas e químicas do meio ambiente configura suas próprias cosmotécnicas. E essas cosmotécnicas variam de etnia para etnia, sempre pensando em uma pluralidade maior.
Nesse sentido, podemos vincular essa ideia ao impacto das IAs, pois pensar a tecnodiversidade pode ser uma maneira eficaz de minimizar as externalidades negativas das tecnologias. Yuk não é necessariamente considerado um pensador decolonial, e seu pensamento percorre outros caminhos – com influências de Heidegger, por exemplo. Contudo, existem convergências profundas entre a tecnodiversidade e algumas propostas decoloniais na área de tecnologia.
IHU – O que significa o movimento do Santa Fe Institute, encabeçado pelo professor David Krakauer, sobre a Ciência da Complexidade? Como esta área aborda a IA? [1]
Rodrigo Petronio – O Instituto Santa Fé é, hoje, uma das instituições mais importantes no mundo da ciência, em várias áreas. Para quem não conhece, trata-se de um instituto consolidado, extremamente relevante como promotor de conhecimento e mantenedor de pesquisadores de várias partes do mundo, especialmente por sua área de atuação, que é a complexidade. Muitos cientistas, oriundos das mais diversas universidades, vão para lá pesquisar problemas que não estão necessariamente vinculados à especificidade ou à especialidade de suas respectivas áreas de conhecimento. É, talvez, um dos grandes polos interdisciplinares da atualidade.
Recentemente, eles concluíram um trabalho magnífico: um recenseamento e compilação dos principais textos sobre a ciência da complexidade, desde o início do século XX até a atualidade. São, se não me engano, quatro volumes, com um quinto a caminho, que somam milhares de páginas. Eles organizaram, estabilizaram e editaram esse material, contendo alguns dos papers, documentos, textos e ensaios mais importantes sobre a teoria da complexidade no século XX, incluindo também o século XXI, em ordem cronológica. É um trabalho impressionante e muito potente, inspirado pelos grupos de Palo Alto e por pensadores das ciências da complexidade, como a Teoria Gaia.
Esses pensadores, em grande parte, atuavam dentro e fora das universidades, e foram relativamente marginalizados em suas respectivas áreas de conhecimento, porque estavam explorando territórios ainda não codificados pela ciência tradicional. No entanto, esse é o campo de investigação onde me sinto à vontade. Prefiro falar de teorias da complexidade, pois, quando pensamos em complexidade, muitas vezes já remetemos diretamente a Edgar Morin – que é incrível –, mas as teorias da complexidade não se restringem a ele. Elas estão dispersas em todas as ciências, tanto naturais quanto humanas, abrangendo praticamente todas as áreas do conhecimento no século XXI.
Se fizermos uma pesquisa, veremos que química, matemática, física, astronomia, cosmologia, todas essas áreas, e também as ciências humanas, estão enfrentando o “problema da complexidade”. No fundo, esse é o novo paradigma do século XXI. Lembrando Isabelle Stengers e Ilya Prigogine em “Nova Aliança”, vemos a ciência clássica de Aristóteles a Newton, a ciência moderna de Newton e Descartes até Einstein, e, agora, a ciência da complexidade como o terceiro grande momento, o momento que vivemos atualmente.
Assim, eu diria que a ciência tem o modo “normal” de operar, seguindo o protocolo dos paradigmas de Thomas Kuhn, que, claro, pode ser eficaz, brilhante e resolver muitos problemas. Mas a revolução científica que está por surgir, a revolução da complexidade, não estava inscrita no modus operandi normal da ciência. Por isso, ao pensarmos em inteligência artificial, não há como não refletirmos sobre isso.
Edgar Morin define bem que o complexo não é o oposto do simples. Pensar o complexo como o oposto do simples geraria um dualismo. Morin, com seu modelo dialógico, é antes um pensador radicalmente antidualista. Ele nos propõe pensar a ciência do simples, representada pela ciência clássica e moderna, com o modelo reducionista de Descartes, Newton e Darwin, dentro de um círculo concêntrico. Dentro desse círculo, podemos abrir outros círculos mais vastos, onde a ciência da complexidade se insere.
O grande desafio ao pensar IA é que ela pode ser vista tanto como um fenômeno de complexidade quanto de anticomplexidade. Isso significa que, do ponto de vista do impacto, as IA podem gerar reduções radicais de complexidade. Afinal, as IAs estão ligadas ao capitalismo, e o capitalismo, por sua natureza, não é produtor de complexidade. A complexidade não é o objetivo do capitalismo, que continua buscando métodos cada vez mais radicais, grotescos e violentos para reduzir a complexidade e capturar “máquinas de guerra”, como falam Deleuze e Guattari. O capitalismo age como uma máquina de guerra.
Esse é o grande paradoxo. Enquanto investigamos a IA em níveis de alta sofisticação e complexidade, por exemplo, na questão da consciência e da mente, ao mesmo tempo vemos essas tecnologias sendo capturadas por movimentos como a extrema-direita, visando mais devastação e redução, o que eu chamaria de “anticomplexidade”. Esse é um dos dilemas que me exaure no estudo das IA.
Por exemplo, pesquisei o papel das IA na Amazônia e apresentei uma conferência sobre isso recentemente. Existem inúmeras possibilidades, como a dataficação da Amazônia, o controle do desmatamento, monitoramento via satélite, cruzamento de grandes volumes de dados, detecção de estradas ilegais e o “DNA das Árvores”. Através de isótopos, é possível identificar de onde uma árvore foi extraída, e se ela veio de uma área protegida ou não. Esse é um exemplo de como a IA pode viabilizar soluções de alta complexidade.
Com a chegada da computação quântica, a capacidade de processamento será ampliada exponencialmente, e surgirão ainda mais mecanismos de alta sofisticação para lidar com sistemas complexos, como o mapeamento da mente e do cérebro, a detecção de câncer e outros problemas graves de saúde. Há muitos exemplos. Além disso, a IA pode ser usada para a exploração sustentável de ativos da Amazônia, colocando a economia brasileira em um patamar jamais imaginado.
No entanto, ao mesmo tempo as IA também estão a serviço de grandes empresas mineradoras, que investem nelas para alcançar suas metas de “pegada zero de carbono”, o que, muitas vezes, revela-se um efeito extremamente cínico. As IA estão nas mãos de grandes corporações, como as Big Techs, que não têm compromisso com a governabilidade ou sustentabilidade.
IHU – Quais medidas efetivas, para além do debate público e do alerta dos especialistas, estão em curso para conter o impacto negativo das IAs?
Rodrigo Petronio – Volto a dizer que, assim como não existe uma definição geral de IA, também não existe a Inteligência Artificial Geral. Não há uma legislação comum, e isso acaba sendo um processo mais localizado e governamental. Cada governo está tentando mitigar danos, analisar impactos, etc. Eventualmente, isso se tornará uma rede de negociações internacionais, chegando a alguns consensos.
Veja, novamente, que já temos iniciativas. Tem muita gente talentosa no Brasil, colegas meus brilhantes estão pensando nessa questão e levando o debate para a política. Existem chamadas públicas para discussões, gente trabalhando no nível da jurisdição, e temos a LGPD, a Lei Geral de Proteção de Dados, que vem avançando. Em termos conceituais, essa lei é consistente, então sim, há muitas pessoas pensando nesse tema, além dos alertas de especialistas que você mencionou.
Falando em alertas, tempos atrás surgiu aquela carta assinada por vários especialistas, entre eles, o Geoffrey Hinton. Eu gosto muito dele, apesar de algumas críticas. Hoje ele é uma figura central no debate público sobre IA e tem visões lúcidas. Há também o Max Tegmark, um cosmologista sueco, que também assinou a carta. No entanto, o problema com essas cartas e manifestações é que, às vezes, elas podem ocultar certos interesses empresariais, um protagonismo de agentes econômicos no desenvolvimento de determinadas tecnologias, como o ChatGPT ou outras IA de imagem, mais do que realmente uma preocupação ética e humanitária com o destino da humanidade.
É como se tivéssemos sempre que ler nas entrelinhas e tomar cuidado com essas visões, porque elas são política e economicamente enviesadas. Eu diria que existe um debate que pode ser costurado de maneira transnacional, por meio de negociações multilaterais, e há muita gente boa trabalhando nesse sentido.
Aqui no Brasil, por exemplo, a Silvia Piva, que é uma colega e amiga, tem desenvolvido pesquisas fortes no âmbito jurídico. O Diogo Cortiz, outro colega, está viajando o mundo representando aspectos superimportantes, e a Lucia Santaella, uma pesquisadora com grande autoridade, está debatendo epistemologia, cognição e os limites de intervenção das IAs. Poderia citar muitos outros casos.
Voltando à questão da Amazônia, que mencionei antes, o problema não é falta de cientistas, de potencialidade, de ideias ou de mão de obra. Também não é falta de capacidade computacional, que tem crescido cada vez mais. O que realmente precisamos é de decisão política. Eu acredito que muito disso tem que vir de cima para baixo. A sociedade está se mobilizando, o que é ótimo, mas quando vem de cima para baixo, há uma desmobilização e não conseguimos fazer o que deve ser feito.
IHU – O que você vê na evolução da IA é a sua necessidade de inclusão na educação das novas gerações. Como poderei ajudar minhas crianças a não serem analfabetas nesse mundo da IA?
Rodrigo Petronio – Existe todo esse debate sobre o uso de celulares. Eu tenho uma visão bem específica sobre isso. Acho que evitar o uso do celular é quase como evitar assistir televisão, sabe? Claro, isso precisa ser recortado por faixa etária. É importante considerar o uso com objetivo.
Por exemplo, eu atuo no ensino superior e tenho gostado de usar o celular em sala de aula. Às vezes, digo: “Pesquisem isso que acabei de falar. O que vocês encontraram?” O tempo todo, eu os incentivo a pesquisar ou a usar ferramentas como o ChatGPT. Alunos trazem temas e eu os oriento a fazer pesquisas bibliográficas, e depois trabalhamos individualmente com o material que a IA ajudou a encontrar. A ferramenta pode ser muito útil.
Eu não saberia dizer com precisão, mas acho que vale pensar em uma graduação de uso conforme a faixa etária. Em quais fases da vida é preciso mais acompanhamento para garantir o melhor uso das ferramentas digitais? Por exemplo, desenhos animados interativos, que estimulam a modularidade da mente e a criatividade, são muito bons. Isso aumenta as chances de que as crianças não se tornem analfabetas no mundo digital. Na verdade, nós corremos mais risco de nos tornarmos obsoletos e analfabetos em relação às gerações mais novas, porque elas já dominam intuitivamente essas tecnologias.
Hoje, está ocorrendo uma mudança cognitiva que precisa ser muito analisada. Ela traz elementos que considero negativos, mas também é parte do devir do Homo sapiens. São modos diferentes de operacionalizar, organizar informações e trabalhar a modularidade da mente. Não é o cérebro que está mudando, mas a mente, por causa das novas tecnologias. Acho que isso pode trazer coisas muito positivas.
Por isso, precisamos avançar com cautela. Nunca tivemos tanta informação disponível como agora, ao longo da evolução do Homo sapiens e dos hominídeos. Estamos vivendo algo singular, sem precedentes. Não dá para comparar a cartilha “Caminho Suave” com o uso de celular; são coisas totalmente diferentes. Mas, dentro deste processo de acomodação, há muitas coisas boas que podem ser exploradas.