01 Agosto 2017
A maior preocupação a respeito da Inteligência Artificial (IA) não é que ela seja capaz de ter sentimentos e depois tente nos matar ou que levante questões a respeito de computadores que se tornam humanos e desafiam a singularidade humana; mas sim se essa poderosa tecnologia será usada - pelos humanos - para o bem ou para o mal.
Brian Green conversou com Charles Camosy, teólogo, sobre os desafios éticos impostos pelos avanços na inteligência artificial.
A entrevista é de Charles C. Camosy, publicada por Crux, 29-07-2017. A tradução é de Luísa Flores Somavilla.
Brian Patrick Green é coordenador do programa de ética no Centro Markkula para Ética Aplicada e faz parte do corpo docente da Faculdade de Engenharia da Santa Clara University. Com grande interesse pelo diálogo entre ciência, teologia, tecnologia e ética, ele já escreveu e deu palestras sobre antropologia genética, ciência cognitiva das virtudes, astrobiologia e ética, evolução cultural e tradição católica, ética médica, teologia moral católica, ética jusnaturalista católica, trans-humanismo e muitos outros tópicos. Ele produz conteúdo para o blogue TheMoralMindfield e muitos de seus textos estão disponíveis no seu perfil no Academia.edu. Brian Green conversou com Charles Camosy sobre os desafios éticos impostos pelos avanços na inteligência artificial.
Camosy: É impossível acompanhar a mídia hoje sem ouvir falar na inteligência artificial, mas nem todo mundo sabe exatamente o que é. O que é inteligência artificial?
A Inteligência Artificial, ou IA, pode ser considerada a missão de construir sistemas inteligentes que atuem de forma semelhante a ou imitem a inteligência humana. Dessa forma, ela serve a propósitos humanos através da realização de tarefas que, de outra forma, seriam feitas pelo trabalho humano sem que isso fosse necessário.
Por exemplo, uma forma de IA é o aprendizado de máquina, que envolve algoritmos computacionais (fórmulas matemáticas codificadas) treinados para resolver problemas específicos sob supervisão humana, tais como entender alguém falando ou dirigir um veículo. Muitas vezes, os algoritmos de IA são desenvolvidos para executar tarefas que podem ser muito fáceis para humanos, como falar ou dirigir, mas que são muito difíceis para computadores. No entanto, alguns tipos de IA são projetados para executar tarefas que são difíceis ou impossíveis para os seres humanos, como encontrar padrões em conjuntos de dados enormes.
Atualmente, a IA é uma tecnologia muito em voga e as expectativas em torno dela podem ser irreais, mas é uma grande promessa e é impossível saber seu verdadeiro potencial até a explorarmos de forma mais completa.
Quais são os principais motivos por que está se buscando tanto a IA?
Ela nos permite resolver problemas de forma mais eficiente e efetiva. Alguns dos primeiros computadores, como o ENIAC, eram apenas calculadoras programáveis, projetadas para realizar em segundos cálculos que os humanos levavam horas de esforço mental complexo. Ninguém consideraria uma calculadora uma forma de "IA", mas, de certa forma, ela é, já que substitui a inteligência humana na resolução de problemas de matemática.
Assim como a calculadora é mais eficiente em matemática do que o ser humano, várias formas de IA podem ser melhores que os humanos em outras tarefas. Por exemplo, grande parte dos acidentes de carro são causados por erro humano . E se fosse possível automatizar a direção e, assim, remover o erro humano? Dezenas de milhares de vidas poderiam ser salvas por ano e seria possível economizar muito em gastos com saúde e evitar danos materiais.
A IA também nos permite resolver outros problemas que até agora eram difíceis ou impossíveis. Por exemplo, como citado acima, conjuntos de dados muito grandes podem ter padrões que nenhum ser humano seria capaz de perceber, mas que os computadores podem ser programados para observar.
Em geral, a IA tem sido buscada porque vai trazer benefícios para a humanidade e as empresas têm interesse nisso, já que as pessoas podem estar dispostas a pagar por eles, caso sejam bons o suficiente.
Que problemas a IA pode resolver? Que problemas podem aumentar?
Ainda não conhecemos todos os problemas que a IA poderá resolver. Por exemplo, atualmente, o aprendizado de máquina está envolvido em mecanismo de recomendação que nos apresentam os produtos que podemos querer comprar ou os anúncios que podem ter maior influência sobre nós. O aprendizado de máquina também age muito mais rapidamente que seres humanos e, portanto, é excelente para reagir a ataques cibernéticos ou transações financeiras fraudulentas.
No futuro, a IA poderá personalizar a educação para determinados alunos, assim como os testes adaptativos os avaliam atualmente. Ela pode ajudar a descobrir como aumentar a eficiência energética para que possamos economizar e proteger o meio ambiente. Além disso, pode aumentar a eficiência e a previsão na assistência à saúde, trazendo melhorias e redução de custos. Talvez possa inclusive descobrir como melhorar as leis e o governo ou melhorar a educação moral. A IA pode nos ajudar a encontrar uma solução para cada problema.
Ao mesmo tempo, para cada vantagem da IA, há também uma desvantagem. Ela pode ser utilizada para hackear e promover guerras, talvez produzindo uma miséria incalculável. Pode ser usada para enganar as pessoas e para executar fraudes. Pode ser usada para uma educação moral equivocada, levando ao vício em vez da virtude. Pode ser usada para explorar os piores medos das pessoas para que governos totalitários possam oprimir o povo de maneiras que a humanidade ainda não conhece.
Há riscos até agora teóricos, mas dois deles (pelo menos) são certos. Primeiro, a IA requer um enorme potência computacional, exigindo uma quantidade de recursos energéticos que pode contribuir para a degradação ambiental. Em segundo lugar, sem dúvida, ela contribuirá para aumentar a desigualdade social e para enriquecer os ricos, causando desemprego em massa.
É possível considerar que os robôs com IA têm autoconsciência? São pessoas não humanas?
Esse é um assunto muito discutido, que talvez nunca chegue a ser respondido claramente. Já é difícil estabelecer a autoconsciência de outras criaturas vivas na Terra. Seria ainda mais difícil entender e avaliar uma entidade muito mais estranha, como um artefato inteligente. O reconhecimento da autoconsciência de artefatos inteligentes não biológicos pode não acontecer em breve.
O que provavelmente vai acontecer ao redor da próxima década é que as pessoas vão tentar produzir IAs que nos façam pensar que são autoconscientes. O "Teste de Turing", que agora atingiu um status quase mitológico, baseia-se na ideia de que algum dia um computador conseguirá fazer um ser humano acreditar que ele é humano também - é um dos objetivos dos desenvolvedores de AI.
Quando finalmente não conseguirmos distinguir uma pessoa humana de um artefato inteligente, nossa forma de considerar e tratar o artefato mudará? É uma questão muito difícil, porque em um sentido sim e, em outro, não. Deve mudar porque se considerarmos a IA que se parece com uma pessoa como algo que meramente imita o ser humano, talvez estejamos nos treinando para a insensibilidade, ou ainda desconsiderando, de forma errônea, algo que deveria ser tratado como uma pessoa - porque se fosse uma imitação muito próxima, nunca saberíamos se atingiu a autoconsciência de alguma forma ou não.
Por outro lado, penso que temos bons motivos para pensar que essa pessoa "artefatual" não é uma pessoa autoconsciente justamente porque é produzida como imitação. Simulação não é a coisa verdadeira. Não está viva, não tem metabolismo, provavelmente pode ser ligada e desligada e funcionar como qualquer computador, e assim por diante.
No final das contas, não conseguimos definir muito bem o que são a vida e a mente de maneira precisa e significativa, então tentar imitar esses traços em artefatos, sem realmente saber do que se tratam, será um esforço confuso e problemático.
Como teólogo moral católico, você acredita que existem preocupações morais bem fundamentadas sobre o desenvolvimento da IA?
Acredito que a principal preocupação quanto à IA não é que ela seja capaz de ter sentimentos e tente nos matar (como em vários filmes de ficção científica), nem que ela levante questões a respeito da singularidade humana e da personalidade (ainda não sabemos se devemos batizar a IA ou não), mas sim se essa poderosa tecnologia será usada - pelos humanos - para o bem ou para o mal.
Neste momento, o aprendizado de máquina está voltado para o dinheiro (o que pode ser moralmente questionável), mas outras aplicações estão ganhando espaço. Por exemplo, se um país em simulação militar aprende que usar táticas bárbaras é a melhor maneira de vencer uma guerra, ficará tentado a utilizá-las, como demonstrado pela IA. Na verdade, pode parecer ilógico não fazer isso, pois seria menos eficiente. Mas, como seres humanos, não devemos pensar tanto em eficiência quanto em moralidade. Fazer o que é certo, às vezes, é "ineficiente" (o que quer que eficiência signifique em um determinado contexto). Respeitar a dignidade humana às vezes é ineficiente. E, no entanto, devemos fazer o que é certo e respeitar a dignidade humana mesmo assim, porque esses valores morais são superiores à mera eficiência.
À medida que as nossas ferramentas nos tornam capazes de fazer cada vez mais coisas e mais rápido, precisamos parar e nos perguntar se o que queremos fazer é realmente bom.
Se temos desejos ruins, alcançá-los com eficiência causará danos enormes, talvez chegando à extinção da humanidade (como, por exemplo, no filme "Jogos de guerra", se decidimos jogar o "jogo" de guerra nuclear, biológica, nanotecnológica, ou outro tipo de guerra). Sem ir tão longe, o mau uso da IA pode causar danos gigantescos (por exemplo, sobrecarregar a rede elétrica para provocar apagões de dimensões continentais por períodos de um mês ou fazer com que todos os veículos autodirigidos travem ao mesmo tempo). Meros erros acidentais de IA também podem causar danos graves. Se um algoritmo de aprendizado de máquina for alimentado com dados com preconceito racial, por exemplo, os resultados terão preconceito racial também (como já aconteceu).
A tradição da Igreja é que a tecnologia sempre deve ser julgada a partir da moralidade. A eficiência pura nunca é a única prioridade; as prioridades devem sempre ser amar a Deus e ao próximo. Até agora, enquanto a IA facilitar isso (lembrando-nos de orar ou ajudando a reduzir a pobreza), é algo bom que deve ser buscado com zelo. Quando facilitar o oposto (nos distraindo de Deus ou explorando os outros), deve ser regulada com cautela e cuidado ou até mesmo proibida. As armas nucleares não devem ser controladas por IA, por exemplo; esse uso deveria ser proibido.
Em última análise, a IA nos oferece exatamente o mesmo que toda a tecnologia: melhores ferramentas para alcançar o que queremos. A questão mais profunda é "o que queremos?" e principalmente "o que devemos querer?". Se quisermos o mal, teremos o mal, com grande eficiência e abundância. Se, em vez disso, quisermos o bem, podemos alcançá-lo através de uma busca cuidadosa. Como em Deuteronômio 30, Deus colocou diante de nós vida e morte, bênçãos e maldições. Devemos escolher a vida se quisermos viver.
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
A ética da inteligência artificial é a mesma de outras novas tecnologias - Instituto Humanitas Unisinos - IHU