28 Novembro 2017
O artigo a seguir foi publicado originalmente no site do Markkula Center, que autorizou sua reprodução. Brian Green é diretor-assistente do Campus Ethics do Centro Markkula de Ética Aplicada. Os pontos de vista expressos são os do próprio autor. A tradução é de Luisa Flores Somavilla.
A Inteligência Artificial e as tecnologias de aprendizado de máquina estão transformando a sociedade rapidamente e devem continuar transformando nas próximas décadas. Essa transformação social terá impactos éticos profundos, pois estas poderosas novas tecnologias vão tanto melhorar como prejudicar a vida humana. A IA, como a exteriorização da inteligência humana, oferece, de forma amplificada, tudo o que a humanidade já é - o bem e o mal. Há muito em jogo. Nesta encruzilhada da história, precisamos pensar com muito cuidado sobre como fazer essa transição, senão corremos o risco de empoderar o lado mais sombrio da nossa natureza, e não o mais brilhante.
O Centro Markkula de Ética Aplicada recentemente se uniu à Partnership on AI to Benefit People and Society (Parceria em IA para Beneficiar as Pessoas e a Sociedade) e, enquanto instituição, temos pensado sobre a ética da IA de forma muito profunda há vários anos. Nesse espírito, oferecemos uma lista preliminar de questões com relevância ética em IA e em aprendizado de máquina.
A primeira pergunta sobre qualquer tecnologia é se funciona como esperado. Os sistemas de IA funcionarão como se promete ou terão falhas? Quando e se falharem, quais serão os resultados? E se dependermos deles, seremos capazes de sobreviver sem eles?
Por exemplo, pelo menos uma pessoa já morreu em um acidente de carro semiautônomo porque o veículo encontrou-se numa situação em que o fabricante antecipou que falharia e o condutor humano que deveria assumir o controle não corrigiu a situação.
A questão da segurança técnica e das falhas distingue-se da questão de como uma tecnologia que funciona corretamente pode ser usada para o bem ou para o mal (questões 3 e 4, abaixo). É uma pergunta apenas sobre função, mas é a base sobre a qual todo o resto da análise deve se construir.
Depois de determinarmos que a tecnologia funciona adequadamente, conseguimos realmente entender seu funcionamento e coletar dados sobre isso adequadamente? A análise ética sempre depende de entender os fatos acima de qualquer coisa – só assim é possível iniciar a avaliação.
Acontece que com algumas técnicas de aprendizado de máquina, tais como o deep learning (aprendizagem profunda) em redes neurais pode ser difícil ou impossível de entender por que a máquina faz as escolhas que faz. Em outros casos, a máquina pode explicar uma coisa, mas a explicação é muito complexa para que humanos entenderem.
Por exemplo, em 2014, um computador provou um teorema matemático chamado "problema da discrepância de Erdős", usando uma prova que era, pelo menos na época, maior do que toda a Wikipédia. Explicações como esta podem ser verdadeiras, mas os seres humanos nunca terão certeza disso.
Além disso, em geral, quanto mais poderoso algo ou alguém é, mais transparente deve ser; enquanto quanto mais fraco alguém é, mais direito à privacidade deve ter.
Portanto, a ideia de que poderosas IAs podem ser intrinsecamente opacas é confusa.
Uma tecnologia em perfeito funcionamento, como uma arma nuclear, pode, quando utilizada para os fins a que se destina, causar grandes estragos. A inteligência artificial, assim como a inteligência humana, será usada de maliciosa, sem dúvidas.
Por exemplo, o controle por IA já está generalizado, tanto em contextos apropriados (por exemplo, em câmeras de segurança de aeroportos) e contextos possivelmente inapropriados (por exemplo, produtos cujos microfones estão sempre ativados em nossas casas). Entre outros exemplos nefastos obviamente estão a pirataria informática assistida por IA ou Sistemas de Armas Letais Autônomas (em inglês, LAWS), também conhecidos como "robôs assassinos". Outros medos, de diferentes graus de plausibilidade, incluem cenários como os dos filmes "2001: uma Odisseia no Espaço", "Jogos de guerra" e "O Exterminador do Futuro".
Enquanto filmes e tecnologias de armas podem parecer ser exemplos extremos de como a IA pode empoderar o mal, devemos lembrar que a competição e a guerra são sempre motores primários de avanço tecnológico e que as forças armadas e corporações estão trabalhando nestas tecnologias neste momento. A história também mostra que nem sempre há completa intenção em grandes males (por exemplo, cair na Primeira Guerra Mundial e vários momentos de quase ataque nuclear na Guerra Fria). Portanto, ao deter poder de destruição, mesmo sem a intenção de utilizá-lo, corre-se o risco de haver alguma catástrofe. Por isso, proibir ou abrir mão de algumas tecnologias seria a solução mais prudente.
O principal objetivo da IA é, como qualquer outra tecnologia, ajudar as pessoas a viver por mais tempo e de forma próspera e gratificante. Isso é bom, e, portanto, enquanto a IA ajudar as pessoas desta forma, podemos ficar contentes e apreciar os benefícios que ela nos oferece.
A inteligência adicional provavelmente trará melhorias em quase todos os campos da atividade humana, como, por exemplo, a arqueologia, a pesquisa biomédica, a comunicação, a análise de dados, a educação, a eficiência energética, a proteção ambiental, a agricultura, as finanças, os serviços jurídicos, o diagnóstico médico, a gestão de recursos, a exploração do espaço, o transporte, a gestão de resíduos, e assim por diante.
Como apenas um exemplo concreto de benefício da IA, alguns equipamentos agrícolas passaram a ter sistemas informáticos capazes de identificar visualmente as ervas daninhas e pulverizá-las com doses diminutas de herbicida. Isso protege não apenas o meio ambiente, reduzindo o uso de produtos químicos na agricultura, mas também a saúde humana, reduzindo a exposição a esses produtos.
Um dos aspectos interessantes das redes neurais, base atual da inteligência artificial, é que elas se fundem em um programa com os dados que são fornecidos. Isto tem muitas vantagens, mas também há o risco de tornar todo o sistema tendencioso de formas inesperadas que podem ser prejudiciais.
Vieses algorítmicos já foram descobertos, por exemplo, em áreas que vão desde o julgamento penal até legendas de fotografias. Esses vieses fazem mais do que simplesmente atrapalhar as empresas que produzem os produtos defeituosos: eles têm efeitos negativos e prejudiciais concretos sobre suas vítimas e diminuem a confiança nas empresas, no governo e em outras instituições que possam estar usando estes produtos tendenciosos. O viés algorítmico é uma das principais preocupações a respeito de IA neste momento e deve continuar sendo no futuro, a menos que nos esforcemos para tornar nossos produtos tecnológicos melhores do que nós. Como alguém disse, recentemente, em uma reunião da Partnership on AI, "nós vamos reproduzir todas as nossas falhas humanas de forma artificial, a não ser que nos esforcemos agora para garantir que não aconteça".
Muitas pessoas já perceberam que a IA será uma ameaça a alguns tipos de emprego. Realmente, a indústria da automação tem contribuído de forma considerável para a redução de empregos desde o início da revolução industrial. A IA simplesmente vai estender essa tendência para outras áreas, como algumas que têm sido tradicionalmente consideradas mais seguras perante a automação, como, por exemplo, Direito, Medicina e Educação. Além de desenvolvedor de IA, não se sabe ao certo para que novas carreiras estas pessoas desempregadas poderão migrar, e até mesmo a programação de IA pode se tornar automatizada no futuro, pelo menos parcialmente.
Junto com a preocupação com os empregos vem a preocupação sobre como a humanidade investe seu tempo e o que significa viver bem. O que os milhões de desempregados vão fazer? Que bons propósitos eles têm? Como podem contribuir para o bem-estar da sociedade? Como a sociedade vai fazer com que não fiquem desiludidos e amargurados e entrem em movimentos maus, como os da supremacia branca e do terrorismo?
Relacionada ao problema do desemprego encontra-se a questão de como as pessoas vão sobreviver se o desemprego chegar a níveis muito elevados. Onde vão arrumar dinheiro para se manter e manter suas famílias? Enquanto os preços podem diminuir devido à queda no custo de produção, também é provável que os que controlam a IA fiquem com grande parte do dinheiro que em outros contextos iria para os salários dos agora desempregados, aumentando, portanto, a desigualdade econômica.
Algumas pessoas, incluindo bilionários como Mark Zuckerberg, sugeriram uma renda básica universal (RBU) para resolver o problema, mas isso exigirá uma grande reconstrução das economias nacionais. Várias outras soluções ao problema podem ser possíveis, mas todas envolvem mudanças consideráveis para a sociedade humana e o governo. Em última análise, este é um problema político, e não técnico; assim, esta solução, bem como muitas dos problemas apresentados aqui, tem de ser analisada politicamente.
Se entregarmos nossa capacidade de tomar decisões a máquinas, teremos menos experiência nisso. Por exemplo, este é um fenômeno bem conhecido entre os pilotos de avião: o piloto automático consegue fazer tudo para pilotar um avião, desde a decolagem até o pouso, mas os pilotos optam por controlar a aeronave manualmente em momentos cruciais para manter suas habilidades para pilotar.
Como um dos usos da IA será ajudar ou substituir os seres humanos em certos tipos de decisões (por exemplo, ortografia, condução, negociação de ações, etc.), precisamos estar cientes de que essas habilidades podem piorar. Na sua forma mais extrema, se a IA começar a tomar decisões éticas e políticas por nós, ficaremos piores em ética e em política. Podemos reduzir ou dificultar nosso desenvolvimento moral justamente quando nosso poder ficou ainda maior e nossas decisões, mais importantes.
Isto significa que o estudo e a formação ética tornam-se mais importantes do que nunca. Devemos identificar modos em que a IA pode melhorar nosso aprendizado e nossa formação ética. Não podemos permitir que percamos nossas habilidades e fiquemos enfraquecidos na ética nunca, senão quando nossa tecnologia nos apresentar um problema que precisamos resolver é possível que estejamos como crianças amedrontadas e confusas diante de uma criação que não compreendemos.
Alguns pensadores já se perguntaram se os sistemas de IA podem chegar a se tornar autoconscientes, atingir volição própria ou, caso contrário, se merecem reconhecimento como pessoas como nós. Legalmente falando, dá-se status de pessoa [jurídica] a empresas e (em outros países) a rios, então certamente não há nenhuma necessidade de consciência, antes mesmo que surjam questões legais.
Moralmente falando, podemos prever que tecnólogos tentarão desenvolver IAs e robôs o mais parecidos com humanos possível, e talvez um dia eles sejam imitações tão boas que nos perguntaremos se podem ter consciência e se merecem ter direitos – e talvez não consigamos determinar isso de forma conclusiva. Se os seres humanos do futuro realmente concluírem que a IA e os robôs devem ter estatuto moral, podemos pecar por precaução e senso de justiça e dar-lhes tal estatuto.
Em meio a esta incerteza sobre o estatuto de nossas criações, o que saberemos é que nós, humanos, temos um caráter moral e que, citando Aristóteles, "nos tornamos o que fazemos repetidamente". Portanto, não devemos tratar mal os robôs e IAs, ou podemos estar nos habituando a falhas de caráter, independentemente do estatuto moral dos seres artificiais com que estamos interagindo. Em outras palavras, não importa seu estatuto, pelo bem do nosso caráter moral devemos tratá-los bem, ou, pelo menos, não os maltratar.
Todas as áreas de interesse citadas acima têm efeitos sobre como os seres humanos se veem, se relacionam entre si e vivem. Mas também há uma questão mais existencial. Se o propósito e a identidade da humanidade tem algo que ver com a nossa inteligência (como vários importantes filósofos gregos acreditavam, por exemplo), ao exteriorizar a nossa inteligência e melhorar para além da inteligência humana, estamos nos tornando seres de segunda classe em relação a nossas próprias criações?
Esta é uma questão mais profunda em relação à inteligência artificial, que atinge o núcleo da nossa humanidade, em áreas tradicionalmente reservados para a filosofia, a espiritualidade e a religião. O que acontecerá com o espírito humano se - ou quando - formos vencidos por nossas próprias criações em tudo o que fazemos? Será que a vida humana perderá o sentido? Chegaremos a uma nova descoberta de nossa identidade para além de nossa inteligência? Talvez a inteligência não seja tão importante para nossa identidade como poderíamos pensar, e talvez relegá-la a máquinas nos ajudará a perceber isso.
Este é apenas um começo na exploração da ética em IA; há muito mais a dizer. Novas tecnologias são sempre criadas em prol de algo bom – e a IA nos oferece incríveis novos poderes. Através do esforço harmônico de muitos indivíduos e organizações, esperamos usar a IA para fazer um mundo melhor.
Este artigo é uma adaptação de um artigo científico apresentado para a sociedade teológica Pacific Coast Theological Society no dia 3 de novembro de 2017. Um texto mais curto foi apresentado em 24 de outubro de 2017, na Universidade de Santa Clara, em um painel intitulado “AI: Ethical Challenges and a Fast Approaching Future” (IA: Desafios Éticos e um futuro que se aproxima depressa, tradução livre). No painel, apresentei uma lista de nove áreas de preocupação ética; graças a pertinentes comentários ampliei a lista para dez.
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
Ética e Inteligência Artificial. Dez áreas de interesse - Instituto Humanitas Unisinos - IHU