Lembro que há alguns anos, durante uma aula do curso de Informática da universidade, o professor de Programação saiu com uma frase deste tipo: “No código informático, não existe deus nenhum”. Sua afirmação não queria ter alguma pretensão filosófica. Falava-se de erros. Se algo dá errado no código de um software, a responsabilidade é de quem o escreveu.
O comentário é de Diego De Angelis, programador de computador e colaborador de revistas como Noisey, Vice, Motherboard, Esquire, Jacobin, nas quais escreve sobre cultura popular, questões sociais e ciência. A reportagem foi publicada em Singola, 17-12-2021. A tradução é de Anne Ledur Machado.
Porém, existe uma linha, um fio filosófico que une informática e especulação sobre a vida (e a morte). Há alguns anos, o jornalista irlandês Mark O’Connell viajou para os Estados Unidos para se encontrar com pensadores, a maioria especialistas em programação ou engenheiros, convictos de que podiam derrotar a morte e o envelhecimento. A partir da sua reportagem, foi publicado um livro intitulado “To Be A Machine” [Ser uma máquina], publicado em 2018.
A Califórnia atravessada por O’Connell está pontilhada de milionários convencidos da possibilidade do cancelamento da morte. São os trans-humanistas, fervorosos fiéis de um possível futuro no qual seremos imortais. A singularidade é uma espécie de profecia religiosa do Vale do Silício, na qual as intuições da mescalina no deserto se combinam com as ideias de mentes brilhantes. Como o de Raymond Kurzweil: gênio desde a adolescência, inventor há mais de 50 anos (foi dele o primeiro sintetizador eletrônico capaz de simular o som de um instrumento musical tradicional), engenheiro-chefe do Google.
No credo trans-humanista, chegará o dia em que a evolução tecnológica liberará a inteligência (o software), enjaulada em um corpo (o hardware) biológico. Os nossos cérebros serão digitalizáveis e reproduzíveis na rede e, portanto, instalados como um programa. Seremos capazes de “baixar” o nosso cérebro em uma torradeira se esta estiver equipada com um disco rígido e uma conexão wi-fi.
Tocar a transcendência por meio da informática: houve um momento, em meados dos anos 2010, em que a longevidade e o prolongamento da vida tornaram-se temas candentes no Vale. Em 2013, o Google fundou o Calico, um centro de biotecnologia focado na longevidade e no prolongamento da vida. Uma anedota do livro de O’Connell nos descreve um desejo generalizado na Califórnia: um homem protestava na frente da sede de Mountain View com um cartaz que dizia: “imortalidade já! Google, por favor, resolva o problema da morte”.
Em “To Be A Machine”, a fauna de milionários e engenheiros cheios de visões sobre o futuro é heterogênea: não faltam os “singularistas” convencidos de que o apocalipse da espécie humana ocorrerá por obra das inteligências artificiais (são eles Elon Musk, Steve Wozniak, Bill Gates e muitos outros).
To Be a Machine: Adventures Among Cyborgs, Utopians, Hackers and the Futurists Solving the Modest Problem of Death
Na Itália, faltam trans-humanistas ou filósofos do apocalipse da inteligência artificial, mas a atenção às inteligências artificiais e aos riscos ligados a ela nos últimos tempos está cada vez mais concentrada nas questões de governança. É o que demonstra, por exemplo, o nascimento de associações como a Privacy Network ou a fundação do European Lab for Digital Ethics and Governance, na Alma Mater de Bolonha, dirigido por Luciano Floridi.
Filósofo e professor de Filosofia e Ética em Oxford, Floridi lida há muitos anos com as implicações da quarta revolução industrial – aquela que vê o mundo físico e digital se compenetrarem, que posiciona os dados (coleta, classificação e utilização) como um elemento de valor fundamental.
Floridi também é fundador do Digital Ethics Lab em Oxford. Desde 2021, leciona Sociologia dos Processos Culturais e Comunicativos na Alma Mater de Bolonha. Publicou mais de uma dezena de ensaios, incluindo “La Quarta Rivoluzione. Come l’Infosfera sta trasformando il mondo” [A Quarta Revolução. Como a infosfera está transformando o mundo] e “Il Verde e il Blu. Idee ingenue per migliorare la politica” [O verde e o azul. Ideias ingênuas para melhorar a política].
A Universidade Bicocca acolheu recentemente uma nova edição da Martini Lecture, uma série de encontros sobre os dilemas entre religião e ciência. Dilemas que o cardeal Carlo Maria Martini havia levantado nos anos em que estava vivo e sobre os quais os encontros estão centrados.
A edição de 2021 foi dedicada às “Inteligências Artificiais”, acompanhada pelas intervenções de Federico Cabitza (professor associado de Relações Homem-Máquina na Bicocca e responsável pelo laboratório de “Modelos de incerteza para decisões e interações”) e do professor Floridi.
As intervenções dos dois professores foram publicadas pela editora Bompiani em um pequeno, mas interessante volume, “Intelligenza Artificiale. L’uso delle nuove macchine” [Inteligência artificial. O uso das novas máquinas]. Especificamente, as páginas da intervenção de Floridi me parecem preciosas em um contexto de tomada de consciência das verdadeiras emergências causadas por uma presença cada vez mais maciça da inteligência artificial na cotidianidade de cada um de nós, cidadãos do planeta.
L' intelligenza artificiale. L'uso delle nuove macchine
“Ainda existe um lugar visível para Deus na história do universo?”, é a pergunta que o cardeal Martini se fazia. Floridi assegura que a ideia de Deus não só é dura de morrer, mas também é uma forma de resistência, viva na necessidade de transcendência dos seres humanos.
Pedra já lançada por Aristóteles (“Todos os homens tendem por natureza ao saber”) e elaborada por Galileu em “Il Saggiatore” (1623), a filosofia está escrita no universo: o livro da natureza que, para ser compreendido, requer o conhecimento da linguagem matemática.
Saber a matemática e as suas relativas aplicações significava, então, ter um instrumento epistemológico sobre a natureza. Ao longo dos milênios, o ser humano passou de uma abordagem representativa (mimética) a uma construtiva (poética) do mundo. E, na transformação poiética, a informática, desde o seu nascimento, tornou-se indispensável para as outras ciências: analisar e coletar complexos dados biológicos como o código genético, prever o andamento das bolsas de valores no mundo das finanças, escanear imagens de um terreno em um contexto de planejamento urbano, aquisição e representação de dados astronômicos e assim por diante. São todos processos que requerem a escrita de código e a implementação de algoritmos mais ou menos complexos.
Galileu “descobriu” o método científico e o fato de que o mundo pode ser replicado, sob a forma de variáveis e funções. Mas, séculos depois, com o desenvolvimento da informática, o conceito de digital não apenas descreve o mundo, mas também o reontologiza. Floridi escreve: “Escrita e leitura pertencem agora à mesma categoria conceitual da codificação e decodificação da realidade”.
Na sua fala, Floridi propõe uma divisão entre duas macrocategorias: as inteligências artificiais reprodutivas e as produtivas (ou também fracas e fortes).
Uma inteligência artificial reprodutiva (fraca) “tenta obter com meios não biológicos o resultado do nosso comportamento inteligente”. Como, por exemplo, um robô cortador de grama. O importante não é como o processo é realizado (exceto eventuais riscos calculados e geridos), mas sim que o objetivo seja alcançado.
Em vez disso, uma inteligência artificial produtiva (forte) “tenta obter o equivalente não biológico da nossa inteligência”: um robô cortador de grama produtivo seria capaz de selecionar com precisão os cantos do jardim a serem cuidados, escolher o que fazer com base em uma forma de gosto que poderíamos definir como pessoal. Esse tipo de inteligência é drasticamente semelhante à dos humanos e só a conhecemos como ficção (os replicantes de “Blade Runner”, por assim dizer).
Hoje, a inteligência artificial reprodutiva ganha espaço em campos cada vez mais numerosos, graças à quantidade de dados com que é treinada, ao poder de cálculo disponível e às regras estatísticas que lhe são aplicadas.
Não há inteligência nos dispositivos reprodutivos, razão pela qual Floridi fala de “novas formas do agere”, em vez de “intelligere”, propondo uma nova releitura da equação:
AI = agere artificial
Deve-se agora introduzir o conceito de infosfera: é o espaço da informação na era digital, dos seus agentes (pessoas, dispositivos, interfaces etc.) e das operações (funções) que a atravessam. Para fazer com que a inteligência artificial reprodutiva seja cada vez mais utilizada, a infosfera se modifica, adaptando-se.
Decorre daí um processo, portanto, de reontologização da própria infosfera. Ocorre um “divórcio” (termo caro a Floridi, uma separação) entre o agir e a inteligência biológica. Pode-se vencer sem ser inteligente por definição: um computador pode derrotar o melhor jogador de xadrez.
Assim, entramos no reino onde agir e inteligir não caminham mais juntos: um sistema de inteligência artificial pode ser a causa de um mal, mas nunca será “moralmente” responsável pelas suas ações.
Além disso, observa Floridi, tudo isso apenas aumenta enormemente a responsabilidade humana por tudo o que uma inteligência artificial pode fazer.
O risco do mundo machine-friendly é a perda da centralidade que o ser humano construiu para si mesmo. Isso corre o risco de soar como uma opinião antropocêntrica, mas quer ser exatamente o oposto: nunca fomos destinados para ser o fim do Universo, mas esperávamos isso.
Segundo o professor Floridi, os riscos ligados à escrita (de código) no livro do mundo estão debaixo dos olhos de todos, mas não têm nada a ver com os temores descritos pelos profetas do apocalipse comentados por O’Connell em “To Be A Machine”. A inteligência artificial pode e deve ser um instrumento vantajoso: apoiar a autorrealização do ser humano, sustentar a tolerância e cultivar a coesão, fortalecer o vínculo entre os seres humanos em uma sociedade.
Chega-se, então, ao ponto crítico, ao desafio para o futuro. Que não é a inovação (ou somente ela). Em um contexto de livre mercado, é fútil pensar que o desafio está todo aí: o sistema bem estabelecido das grandes empresas no topo da pirâmide (leia-se: Google) e do oceano das start-ups é uma disputa pela inovação perene. O desafio e os riscos estão na governança, ou seja, no conjunto de regras e de normas que descrevem o mundo da inteligência artificial (e dos efeitos, de modo mais geral, da digitalização no mundo).
Portanto, as prioridades do professor Floridi são a antítese de um perfil como o do trans-humanista encontrado em O’Connell, especificamente alguém como Aubrey De Gray. Biogerontólogo, especialista em genética, matemático e cientista da informação: na busca constante de fundos privados e herdeiro de uma família milionária, fundador de um projeto (SENS) que quer prolongar a vida dos seres humanos para pelo menos 1.000 anos. De acordo com De Gray, a morte por causas ligadas à velhice é um genocídio silencioso.
De Gray é a manifestação mais evidente de um estilo de pessoas (quase exclusivamente masculinas) que fez prosélitos no Vale do Silício. Também em Mountain View: de acordo com Bill Maris, que chefiou o Google Ventures, no futuro, os seres humanos poderão viver até 500 anos.
Os engenheiros filósofos de O’Connell são determinados e se sentem predestinados, dotados de um tecnopositivismo exagerado que faz com que eles se pareçam mais do que santos, “santões” dotados de muitos privilégios sociais. Privilégios que influenciam a sua visão de mundo e que parecem esquecer – culpavelmente ou não – todas as urgências da contemporaneidade.
Passei uma hora em uma videochamada com o professor Floridi, discutindo, embora parcialmente, os temas apresentados acima.
Deixemos de lado algumas personalidades “complicadas” como Elon Musk. Mas, se penso em Wozniak ou em Bill Gates e no medo deles de uma singularidade que hoje parece ficção científica, não posso deixar de lhes dar um mínimo de crédito, dado o seu perfil de cientistas e pensadores. Você é bastante avesso a esse tipo de raciocínio e dá uma explicação baseada na grande diferença entre a inteligência artificial reprodutiva e produtiva. Mas há também uma explicação política?
Acima de tudo, há um pouco de superficialidade: fala-se sem prestar atenção naquilo que se diz. Se pegássemos as previsões de Bill Gates feitas no passado, nós as acharíamos ridículas: em 2004, ele anunciou ao Fórum Econômico Mundial que o spam desapareceria em dois anos. Até os grandes podem cometer equívocos, como quando o presidente da IBM profetizou que bastariam cinco grandes computadores para o mundo (Thomas Watson, em 1943).
Portanto, cuidado, as palavras de um especialista no assunto, por mais especialista que seja, nem sempre são corretas a priori. Lembremos que os nossos problemas efetivos ainda são como fazer com que uma videochamada no Zoom funcione corretamente ou impedir que um carro autônomo atropele uma pessoa. Por isso, não me sinto próximo de nenhuma especulação de tipo californiano. É curioso que todas provêm de uma área concentrada naquela região. Certas especulações parecem ser filhas de uma cultura próxima demais de Hollywood. Depois, há um fenômeno de reforço midiático: as palavras apocalípticas causam um certo efeito, simplesmente vendem.
Finalmente, há um valor de irresponsabilidade, de má gestão das expectativas de problemas reais, de prioridades a serem realizadas. É um ponto que eu gostaria de elaborar: em um mundo em que a sociedade está piorando e a democracia está em crise, entre injustiças sociais e econômicas, além da crise climática, pensar que a nossa primeira preocupação é uma inteligência artificial destrutiva à la Terminator, como defendeu Elon Musk, não só é ridículo, mas também é irresponsável, uma preocupação de 1% da humanidade.
Foi publicado há alguns dias o programa estratégico de inteligência artificial: os termos recorrentes são “antropocentrismo” e “ambiente”. Portanto, um objetivo que você considera fundamental: colocar o ser humano de volta no centro e encontrar um ponto de contato comum, o desafio do ambiente. Mas, na prática, hoje, na União Europeia, estamos a trabalhar a partir desse ponto de vista? Onde a inteligência artificial está apoiando a luta para salvar o ambiente?
Ela já está fazendo muito: por exemplo, aqui em Oxford temos um projeto que eu dirijo com a professora Taddeo, realizado com recursos doados pelo Google, Microsoft, Amazon, para criar uma primeira análise e banco de dados de projetos espalhados por todo o mundo no qual a inteligência artificial apoia a realização dos 17 Objetivos de Desenvolvimento Sustentável das Nações Unidas. Neste momento, são mais de uma centena. Ambiente, tecnologia e negócios podem conviver. Certamente há riscos: basta pensar na utilização militar e no uso ilegal do crime organizado (como o aprendizado de máquina no furto de credenciais). E depois os problemas sociais que já conhecemos, como a privacidade, o preconceito, a alocação desigual de recursos...
E como será o futuro com o advento do computador quântico? O mundo enfrentará uma crise de segurança cibernética?
Sim, há pelo menos dois desafios nessa questão. Aquele relacionado à segurança informática: a nossa impossibilidade analógica será superada pelo Quantum Computing e é um grande problema. A partir desse ponto de vista, a biometria poderia nos ajudar no futuro. O outro problema da computação quântica, no qual estamos trabalhando aqui em Oxford, junto com uma empresa líder na pesquisa sobre o assunto, é o da simulação. A simulação no campo quântico significa que uma empresa poderá ter poderes quase adivinhatórios para prever o futuro; por exemplo, para simular o mercado financeiro das semanas seguintes. Quem chegar primeiro à possibilidade de computar aquilo que não era possível antes será o dono do futuro. Talvez somente por alguns meses, mas será uma vantagem competitiva enorme. Daí o interesse também geopolítico e militar dos governos.
O modelo “P vs NP” [principal problema aberto da Ciência da Computação] é posto em crise?
Não, porque continuamos ligados ao vínculo de que um computador, mesmo que quântico, continua sendo uma máquina de Turing, com as suas funções computáveis ou não. Dito isso, podemos trabalhar por aproximação, estatisticamente falando. O planejamento militar, financeiro e em outros campos terá um aumento vertiginoso de viabilidade devido ao computador quântico.
É uma corrida para ver quem chega primeiro, que me lembra a então corrida pela energia nuclear, com a diferença de que hoje não é uma corrida entre Estados, mas entre empresas.
O deslizamento do público para o privado é um símbolo do século XXI. É claro, Eisenhower já advertia contra o complexo militar-industrial e político. Agora, acontece de forma macroscópica, e hoje as grandes empresas são as que podem se dar ao luxo de bancar a inovação tecnológica. Não temos um CERN para o computador quântico. No entanto, continua sendo um jogo aberto: arrastar essas tecnologias do público para o privado envolve uma reavaliação do público, e é um jogo que o público pode vencer. Quem vai controlar essas empresas? A Política, com P maiúsculo, poderia fazer isso. Na Europa, estão tentando fazer isso.
Nas suas intervenções, você fala muito sobre o conceito de enveloping. Nesse sentido, a Meta, de Zuckerberg, parece uma espécie de olhar assintótico, o “sonho” de um digital que pode substituir o físico até mesmo em algumas operações que parecem “indigitalizáveis” (escrever em um teclado digital em vez de físico). É uma fuga política e midiática (devido aos últimos problemas e escândalos da rede social) ou é um objetivo possível e necessária para o ser humano? Por fim, podemos considerar os donos do Facebook (e, portanto, do Google, Amazon) não muito longe dos déspotas descritos por Hobbes em “Leviatã”. Que a Meta é a construção, para todos os efeitos, de um Estado?
A Meta terá sucesso? Na minha opinião, não, pelo menos pelo modo como ela nos foi apresentada. Em dois contextos já atuais, o que eles querem fazer já está acontecendo: desde a primeira Guerra do Golfo, a telemedicina está implantada com médicos que operam a milhares de quilômetros de distância. Ou se pensarmos no treinamento de pilotos, que em sua maioria é virtual, o discurso é o mesmo. Bem, veremos o que acontecerá quando essa tecnologia cair nas aplicações civis...
Mas o que não bate é a retórica de Second Life ou de Matrix, a decisão de um indivíduo que se cansa do mundo físico de escapar para uma simulação. Caímos de novo em um imaginário hollywoodiano que não faz as contas com a realidade: com o enorme aparato sensorial do ser humano, do equilíbrio, dos seus distúrbios, da percepção do frio e do calor, da umidade e assim por diante. Todo esse mundo é irreprodutível no digital, que deve se contentar em ver e ouvir. O resto é complicado ou impossível.
O mesmo vale para o olfato: há algum tempo, eu estava em uma viagem a trabalho com a minha esposa, que é neurocientista. Conheci uma equipe que trabalha com a neurociência do olfato. Eles têm sistemas capazes de liberar odores específicos no ar, mas capazes também de neutralizá-los e introduzir novos. Uma coisa difícil, que funciona apenas em parte e de uma forma muito elementar, mas possível. Mas a verdade é que não podemos pensar que um dia você vai me convidar para um apartamento digital que vai cheirar a uma pizza (digital) que você, digitalmente, cozinhou.
Concordo. Mas eu me pergunto o que pensaríamos, 10 anos atrás, de milhões de pessoas que maquiam seus rostos por meio da realidade aumentada. Os humanos se adaptam, às vezes desafiando a lógica.
Isso é verdade. Todos já tivemos a oportunidade de fazer pelo menos um happy hour digital, especialmente há algum tempo. Fazíamos isso porque era melhor do que nada. O analógico vence o digital em igualdade de condições. Além disso, há outro problema. No mundo dos videogames, quem controla o mundo virtual? É a própria sociedade, que pode ligar ou desligar a vida digital. A mesma coisa acontecerá com a Meta e operações semelhantes. A impressão é que Zuckerberg tentou uma fuga para o 3D virtual, em busca de um espaço sem legislação. O metaverso é também um reposicionamento jurídico da empresa: essa é uma operação astuta. No entanto, no longo prazo, continua sendo uma operação perdedora. Porque chegará uma legislação também para os mundos virtuais, assim como chegou para a inteligência artificial.
Franco “Bifo” Berardi, em um de seus ensaios, que se chama “Congiunzione”, e que trata de psicopatologias e infosfera, escreve que “o problema é que o cérebro humano, submetido a um bombardeio ininterrupto de estímulos assignificantes, perde a capacidade de elaborar intelectualmente os estímulos informativos e, com mais razão, perde a capacidade de elaborá-los emocionalmente”.
Parece-me uma visão simplista e inutilmente sombria: podemos nos preocupar com a hiperestimulação, mas eu não me lançaria em profecias distópicas. Temos sistemas de autodefesa nos quais devemos confiar, e, do lado do excesso informático, parece-me que se perde de vista a nossa capacidade de sermos extremamente maleáveis. A hiperestimulação é totalmente negativa? Se pensarmos que as gerações estão destinadas a perder elaboração cognitiva em um instante, então estamos deixando Darwin e a plasticidade do cérebro de lado. Além disso, se falamos de cultura, é claro, ela muda em curtos lapsos de tempo. Mas podemos tirar muitas conclusões a partir disso.
Ultimamente, falava-se de criar um Facebook para menores de 13 anos: uma péssima ideia. Existe uma razão pela qual não permitimos que uma criança de cinco anos beba vinho e não é uma questão moral. Espera-se a idade certa e o físico certo. Também existe uma idade adequada para uma rede social. Aqui, porém, o problema também se torna educativo, um problema difícil hoje, porque não temos precedentes. Não temos uma tradição familiar a herdar desse ponto de vista: a cultura educativa digital está se formando e ainda deve se solidificar. É um momento de transição cultural extraordinário, assim como a revolução da agricultura, que nos tornou sedentários, e a revolução industrial, que deu origem ao mundo contemporâneo.
Imaginemos que estamos em 1930 e, depois de um instante, em 1960. Seria incrível. Essa corrida já havia começado no século XX, embora mais ligada a questões culturais (imaginemos contar a um homem dos anos 1930 sobre os Beatles e a Guerra do Vietnã). A verdade é que o verdadeiro divisor de águas hoje é toda a questão digital. Encerro voltando ao início do discurso: bem-aventurados os que já veem o futuro como se tivessem uma bola de cristal. Não sei como o fazem. O futuro pode ser antecipado e construído com base no presente, e não previsto como se já estivesse escrito.