17 Mai 2019
O Massachusetts Institute of Technology (MIT) finalmente deu um nome à soma de todos os medos sobre a Inteligência Artificial. Em vez de simplesmente se assustar com as máquinas inteligentes, afirmam os pesquisadores do Media Lab do MIT, a sociedade deve estudar algoritmos com uma abordagem multidisciplinar semelhante ao campo da etologia.
O comentário é do teólogo e sacerdote italiano Paolo Benanti, frei franciscano da Terceira Ordem Regular e professor de Teologia Moral da Pontifícia Universidade Gregoriana, em Roma. O artigo foi publicado em Settimana News, 06-05-2019. A tradução é de Moisés Sbardelotto.
Agora sabemos como chamar aquela vasta e inquietante coleção de preocupações sobre a inteligência artificial e sobre a miríade de ameaças temidas, da parcialidade da máquina aos empregos perdidos, passando pelos robôs semelhantes ao Terminator: Machine Behavior.
Esse é o termo que os pesquisadores do Media Lab do Massachusetts Institute of Technology (MIT) propuseram para um novo setor de estudos interdisciplinar para entender como a inteligência artificial evolui e o que ela significa para o ser humano.
O que está em jogo é alto, porque existe uma grande possibilidade para as capacidades humanas de serem amplificadas pelos algoritmos, mas também aparecem muitos perigos.
Comentaristas e estudiosos, falando da inteligência artificial, “estão soando o alarme sobre as vastas e não intencionais consequências dos agentes de inteligência artificial que podem exibir comportamentos e produzir efeitos sociais a jusante – tanto positivos quanto negativos – que são imprevistos pelos seus criadores”. Existe “o medo da potencial perda da supervisão humana sobre as máquinas inteligentes”; existe, ainda, o temor de que o desenvolvimento de “armas autônomas” implique que “as máquinas poderiam determinar quem vive e quem morre em conflitos armados”.
Embora ainda seja muito difícil levantar hipóteses sobre palavras definitivas sobre esses cenários, devemos reconhecer que o esforço feito pelo MIT Lab é bonito e ambicioso esforço para dar uma direção ao estudo do papel da inteligência artificial na sociedade. Um modelo propositivo e que olha para o futuro, em vez de temê-lo.
Publicado na revista Nature, o paper “Machine Behavior” reivindica um esforço conjunto dos “campos que projetam e engendram os sistemas de inteligência artificial”, de um lado, e, de outro, dos “campos que tradicionalmente usam métodos científicos para estudar o comportamento dos agentes biológicos”. Especificamente, os autores propõem estudar não apenas como os algoritmos de aprendizado automático funcionam, mas também de que modo eles são influenciados e influenciam o ambiente em que funcionam.
Essa modalidade de abordagem é “semelhante a como a etologia e a ecologia comportamental estudam o comportamento animal integrando a fisiologia e a bioquímica – propriedades intrínsecas – com o estudo da ecologia e da evolução – propriedades modeladas pelo ambiente”.
Os autores principais (Iyad Rahwan, Manuel Cebrian e Nick Obradovich do MIT) colaboraram com outros 20 pesquisadores de inúmeras instituições, incluindo o Facebook AI, Microsoft, Stanford, o departamento de sociologia da Universidade de Yale e o Instituto Max Planck de Berlim para o Desenvolvimento Humano, só para citar alguns.
Eles também prepararam um post [em inglês] no famoso blog Medium sobre o assunto. Rahwan dirige um grupo dentro do Media Lab chamado de Scalable Cooperation Group, que desenvolveu inúmeros caminhos de pesquisa sobre o estudo das máquinas e sobre questões éticas.
Os autores partem do fato de que grande parte da inteligência artificial é capaz de funcionar – apesar do fato de os humanos não entenderem por que ela funciona.
Os algoritmos trabalham “dados de input e produzem um output”, como ressaltam os autores, “mas os processos funcionais exatos que geram esses outputs são difíceis de interpretar, até mesmo para os próprios cientistas que geram os algoritmos”.
“Por causa da sua ubiquidade e complexidade, a previsão dos efeitos de algoritmos inteligentes sobre a humanidade – tanto positivos quanto negativos – levanta um desafio substancial”, destacam os autores.
Os autores se inspiram no prêmio Nobel Nikolaas Tinbergen, cofundador da etologia. Tinbergen descreveu a etologia como o “estudo biológico do comportamento” e propôs quatro elementos que constituem esse estudo: mecanismos, desenvolvimento, função e evolução. Esses quatro conceitos podem ser um modo para explorar o comportamento da máquina.
Nesse contexto, o termo “mecanismos” diz respeito às áreas já mais estudadas na inteligência artificial, como os modelos de redes neurais e os dados que as alimentam. A noção de “desenvolvimento” diz respeito a coisas como as redes neurais que aprendem novas estratégias por causa do modo como interagem com o ambiente. “Por exemplo, um agente de aprendizagem de reforço treinado para maximizar o lucro em longo prazo pode aprender estratégias particulares de trading de curto prazo com base nas próprias ações passadas e no feedback concomitante do mercado.”
Os autores descrevem a função como uma espécie de mistura entre o propósito que um algoritmo herda da programação por obra dos seus criadores humanos (o fim da programação) e o papel não intencional que um algoritmo pode assumir, como os algoritmos de mídia social que levam a “filtros-bolha” e notícias falsas.
Os autores estão explorando o problema da “função-objetivo” no aprendizado automático, ou seja, o que exatamente se supõe que esses algoritmos estão realizando.
O quarto aspecto, “evolução”, não é tão simples quanto se poderia imaginar a partir do nome: há diversos aspectos, incluindo a propensão a supor, por parte dos criadores de redes neurais, que se promovam determinados tipos de algoritmos em relação a outros, mas também a perspectiva de “mutações” que se propagam de modo inesperado. “É possível que uma única mutação adaptativa no comportamento de um carro sem condutor em particular se propague instantaneamente para milhões de outros carros através de uma atualização de software”, especulam.
Essas quatro áreas levam a algumas perguntas interessantes sobre a inteligência artificial.
Por exemplo, com objetos como os veículos autônomos, é preciso fazer perguntas como: “Quão agressivamente o carro deve ultrapassar os outros veículos?”. E “ de que modo o carro distribui o risco entre passageiros e pedestres?”.
Outras perguntas interessantes são coisas como se os robôs conversacionais acabam sendo um meio para vincular as crianças a produtos, ou se os algoritmos de correspondência para os sites de namoro “alteram os resultados distributivos do processo que guia os encontros”.
“As máquinas dão forma ao comportamento humano”, é uma das observações inquietantes. “É importante investigar se pequenos erros nos algoritmos ou nos dados que eles usam poderiam se combinar para produzir efeitos em nível de sociedade e de que modo os robôs inteligentes nas nossas escolas, hospitais e centros de atendimento poderiam alterar o desenvolvimento humano e a qualidade de vida e, potencialmente, influenciar os resultados para pessoas com deficiência.”
Uma vez apreciada a crescente ubiquidade dos algoritmos e uma vez compreendida a urgência do tema, a necessidade de pensar de modo crítico sobre os algoritmos torna-se evidente. Porém, não bastam abordagens funcionais ou biológicas. É preciso uma abordagem filosófica radical.
Como recorda Accoto, “o código software está cada vez mais incorporado hoje – instalado, poderíamos dizer, para permanecer no assunto – dentro das nossas vidas, em formas e dinâmicas tão óbvias quanto, na realidade, invisíveis. O software encarna hoje, no mais alto grau, a ideia de que as tecnologias que mais incidem sobre a existência humana são aquelas que, tendo-se tornado familiares, desaparecem da visão como tais, tornando-se indistinguíveis da própria vida. Quem hoje pensaria, por exemplo, no livro como uma tecnologia?”.
Se os algoritmos são a seiva vital das modernas infraestruturas tecnológicas, se essas infraestruturas modelam e influenciam cada vez mais aspectos das nossas vidas, e se o discernimento e o juízo dos algoritmos-projetistas são a chave para o modo como eles fazem isso, então é importante que nos asseguremos de compreender como esse discernimento e esse juízo funcionam.
Eu também estou convencido – como Luciano Floridi propõe, com razão – de que a filosofia deve voltar a se ocupar dos temas centrais do nosso presente e do nosso futuro próximo, e não apenas comentar os escritos e as reflexões dos filósofos do passado.
Porém, essa abordagem filosófica deve ser capaz, graças ao patrimônio conceitual amadurecido ao longo do tempo, de se sujar as mãos novamente, indo compreender, sondar, dissecar e desconstruir os domínios tecnológicos que vêm emergindo nos últimos anos.
Mais em geral, se os algoritmos se colocam no coração da vida contemporânea, eles devem interessar aos filósofos. Podemos, em uma primeira aproximação, pensar a pesquisa filosófica como que dividida em três ramos principais de investigação: 1) epistemologia (como sabemos?); 2) ontologia (o que existe?); 3) ética (o que devemos fazer?).
O crescimento da governança algorítmica parece ter repercussões importantes em todos os três ramos da investigação filosófica. Tentarei esboçar brevemente algumas dessas repercussões, embora o que eu estou prestes a dizer não seja exaustivo (Luciano Floridi discute ideias semelhantes no seu conceito de filosofia da informação).
Olhando para a epistemologia, parece bastante evidente que os algoritmos têm um impacto importante sobre como adquirimos conhecimento e sobre o que pode ser conhecido. Assistimos a isso na nossa vida cotidiana. A internet e o crescente crescimento da aquisição dos dados levaram à compilação de vastos bancos de dados de informação.
Isso nos permite reunir cada vez mais fontes potenciais de conhecimento. Mas é impossível para os humanos elaborar e ordenar esses bancos de dados sem a assistência algorítmica. O algoritmo para o Pagerank, do Google, e o algoritmo do Edgerank, do Facebook, determinam de modo eficaz uma boa parte das informações com as quais nos relacionamos dia a dia. Além disso, os algoritmos estão agora difundidos na pesquisa científica e podem ser utilizados para gerar novas formas de conhecimento.
Um bom exemplo disso é o algoritmo de prognóstico do câncer C-Path. Trata-se de um algoritmo de aprendizado automático que foi utilizado para descobrir novos modos de avaliar melhor a progressão de algumas formas de câncer. A IBM espera que o seu sistema de inteligência artificial Watson forneça uma assistência semelhante aos médicos. E, se acreditarmos em Ginni Rometty, CEO da IBM, o uso de tais sistemas se tornará efetivamente a norma.
Os algoritmos darão forma àquilo que pode ser conhecido e gerarão modalidades de conhecimento até agora desconhecidas. A revolução que os computadores e a informática trouxeram no campo científico-tecnológico foi habilmente descrita por Naief Yehya: “Com um computador, podemos transformar quase todos os problemas humanos em estatísticas, gráficos, equações. O mais inquietante, porém, é que, ao fazer isso, criamos a ilusão de que esses problemas podem ser resolvidos com os computadores”.
Chris Anderson, diretor da Wired, traça uma síntese do que significa a revolução digital para o mundo científico:
“Os cientistas sempre contaram com hipóteses e experimentos. [...] Diante da disponibilidade de enormes quantidades de dados, essa abordagem – hipótese, modelo teórico e teste – torna-se obsoleta. [...] Existe agora um caminho melhor. Os petabytes nos permitem dizer: ‘A correlação é suficiente’. Podemos deixar de procurar modelos teóricos. Podemos analisar os dados sem qualquer hipótese sobre o que eles podem mostrar. Podemos enviar os números para o maior conjunto de computadores [clusters] que o mundo já viu e deixar que os algoritmos estatísticos encontrem modelos [estatísticos] onde a ciência não pode. [...] Aprender a usar um computador dessa escala pode ser desafiador. Mas a oportunidade é grande: a nova disponibilidade de uma enorme quantidade de dados, unida com os instrumentos estatísticos para elaborá-los, oferece uma modalidade completamente nova de entender o mundo. A correlação suplanta a causalidade, e as ciências podem até avançar sem modelos teóricos coerentes, teorias unificadas ou qualquer tipo de explicação mecanicista.”
O advento da pesquisa digital, onde tudo é transformado em dados numéricos, leva à capacidade de estudar o mundo segundo novos paradigmas gnoseológicos: o que importa é apenas a correlação entre duas quantidades de dados, e não mais uma teoria coerente que explique essa correlação.
Poderia ser um pouco mais complicado ver como os algoritmos podem realmente mudar a nossa compreensão sobre o que existe no mundo, mas há algumas questões interessantes. Não acredito que os algoritmos tenham um efeito sobre as questões fundamentais da ontologia (como, por exemplo, a questão sobre se a realidade é puramente física ou puramente mental), embora possam mudar o modo como pensamos em tais perguntas.
Mas acho que os algoritmos podem ter um efeito bastante profundo sobre a realidade social. Em particular, considero que os algoritmos podem remodelar as estruturas sociais e criar novas formas de objeto social. Dois exemplos podem ser utilizados para ilustrar essa mudança. O primeiro exemplo é retirado do trabalho de Rob Kitchin sobre a cidade programável. Kitchin defende que o crescimento nas chamadas cidades inteligentes (smart cities) dá origem a um ciclo de tradução-transdução.
Por um lado, vários aspectos da vida da cidade são traduzidos em software, de modo que os dados possam ser coletados e analisados. Por outro lado, essa nova informação “transduz” a realidade social. Ou seja, remodela e reorganiza a paisagem social. Por exemplo, o software de modelagem do tráfego poderia coletar e organizar os dados do mundo real, e, então, os planejadores poderiam utilizar tais dados para remodelar os fluxos de tráfego em torno de uma cidade.
O segundo exemplo de impacto ontológico se encontra no campo um tanto esotérico da ontologia social. Como aponta Searle no seu trabalho sobre esse assunto, muitos aspectos da vida social têm uma ontologia subjetivista.
Objetos e instituições são modelados na existência pelo imaginário coletivo. Assim, por exemplo, o estado de ser casado é um produto de uma ontologia subjetivista. Acreditamos coletivamente e atribuímos esse status a indivíduos particulares. O clássico exemplo da ontologia subjetivista em ação é o dinheiro. As modernas moedas legais não têm valor intrínseco: elas têm valor somente em virtude do sistema coletivo de crença e confiança.
Mas esses sistemas coletivos de crença e confiança geralmente funcionam melhor quando a realidade física subjacente dos nossos sistemas de valor é difícil de corromper. Como expliquei em outros posts, os sistemas algorítmicos usados pelas criptomoedas como o Bitcoin poderiam fornecer a base ideal para um sistema de crenças coletivas e nova confiança. Portanto, os sistemas algorítmicos podem ser utilizados para aumentar ou modificar a nossa ontologia social.
Floridi ressalta que os computadores e os algoritmos são dispositivos que envolvem transformações radicais, pois constroem ambientes em que o usuário é capaz de entrar por meio de portas de acesso (possivelmente amigáveis), experimentando uma espécie de iniciação.
Segundo Floridi, não há um termo para indicar essa nova forma radical de construção, de modo que podemos usar o neologismo “reontologizar” para fazer referência ao fato de que tal forma não se limita somente a configurar, construir ou estruturar um sistema (como uma sociedade, um carro ou um artefato) de modo novo, mas envolve fundamentalmente a transformação da sua natureza intrínseca, isto é, da sua ontologia. Nesse sentido, computadores e algoritmos não estão apenas reconstruindo o nosso mundo: eles o estão “reontologizando”.
Por fim, se olharmos para a ética, vemos os impactos filosóficos mais evidentes dos algoritmos. Eu apresentei a esse respeito diversos exemplos em muitas ocasiões e em muitos posts. Os sistemas algorítmicos às vezes são apresentados às pessoas como apolíticos, tecnocráticos e desprovidos de valor. Eles podem ser tudo, menos isso.
Por serem construídos por meio de operações de juízo e serem fruto de discernimento, são atos fundamentalmente éticos. A ética está no cerne da realização de algoritmos, e princípios éticos transparentes e comunicáveis devem ser incluídos na tradução de tarefas em algoritmos, especialmente aqueles que modificam ou interagem com a vida de milhões de pessoas.
Há tanto aspectos positivos quanto negativos nisso. Se bem projetados, os algoritmos podem ser utilizados para resolver problemas morais importantes de modo justo e eficiente. Sem aprofundar o exemplo, parece que os algoritmos de correspondência utilizados para facilitar os transplantes de rins poderiam ser um bom exemplo de tudo isso.
Eu já escrevi em posts anteriores sobre como algoritmos mal projetados amplificaram preconceitos implícitos no processo decisório social – o caso de Propublica. É preciso estar ciente de que os preconceitos implícitos podem alimentar o design de sistemas algorítmicos e de que, uma vez que tais sistemas estejam ativos e em execução, eles podem ter resultados imprevistos e inesperados.
A partir dessas breves considerações, emerge uma consciência: chegou a hora de pensar o software filosoficamente.
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
''Machine Behaviour'' e Inteligência Artificial: nomear os medos, governar os algoritmos. Artigo de Paolo Benanti - Instituto Humanitas Unisinos - IHU