23 Fevereiro 2024
"Para o Ocidente, poderia ser útil no mínimo explorar a opção de tentar aprender com outros – no caso, os sistemas políticos não ocidentais e outras culturas políticas. Uma política de IA efetiva e bem-justificada não deve se furtar a tocar em discussões ético-filosóficas e político-filosóficas ".
O comentário é de Mark Coeckelbergh, pesquisador da Rede Mundial de Tecnologia (WTN) e membro Grupo de Especialistas de Alto Nível da Comissão Europeia sobre Inteligência Artificial, em artigo publicado por Outras Palavras, 21-02-2024.
*Este é um capítulo de Ética na Inteligência Artificial, livro de Mark Coeckelbergh lançado pela Editora UBU, parceria editorial de Outras Palavras.
Como seria de se esperar, políticas de cunho ético na IA enfrentam numerosos desafios. Vimos que algumas propostas de política endossam uma visão de ética na IA que é proativa: precisamos levar em conta a ética já no estágio inicial do desenvolvimento da tecnologia de IA. A ideia é evitar problemas éticos e sociais criados pela IA que seriam difíceis de resolver uma vez que já tenham surgido. Isso está de acordo com as ideias sobre inovação responsável, incorporação de valores no projeto e ideias similares propostas ao longo dos últimos anos. Desloca o problema de ter que lidar com os efeitos negativos de tecnologias que já são amplamente utilizadas para o problema de assumir responsabilidade por tecnologias que estão sendo desenvolvidas hoje.
Contudo, não é fácil prever as consequências não intencionais de novas tecnologias na fase de projeto. Um modo de mitigar esse problema é construir cenários sobre efeitos éticos futuros. Há vários métodos para se conduzir com ética a pesquisa e a inovação; (1) um deles é não somente estudar e avaliar o impacto de atuais narrativas sobre a IA, (2) mas também criar narrativas novas e mais concretas sobre aplicações particulares da IA.
Inovação responsável não é apenas inserir ética no projeto, mas também requer levar em consideração as opiniões e interesses das várias partes envolvidas. Governança inclusiva implica amplo envolvimento das partes interessadas, debate público e intervenção social nas fases iniciais da pesquisa e inovação. (3) Isso pode significar, por exemplo, organizar grupos de discussão e utilizar outras técnicas para saber o que as pessoas pensam sobre a tecnologia em questão.
Essa abordagem de inovação responsável construída mais de baixo para cima está de algum modo em conflito com a abordagem de ética aplicada da maioria dos documentos de políticas, que são majoritariamente formulados de cima para baixo e notavelmente abstratos. Primeiramente, políticas são frequentemente criadas por especialistas, sem contribuições da ampla variedade das partes interessadas. Em segundo lugar, mesmo que defendam princípios como ética desde a concepção, tendem a permanecer muito imprecisas sobre o que significa na prática aplicar tais princípios. Para fazer as políticas da IA funcionarem, continua sendo um grande desafio a construção de pontes entre, de um lado, os princípios éticos e legais, claramente abstratos e de alto nível e, de outro, as práticas de desenvolvimento tecnológico e sua aplicação em contextos específicos, além das tecnologias e vozes daqueles que são parte de tais práticas e trabalham em tais contextos. Esse trabalho de conexão é deixado para os destinatários de tais propostas. Será que se pode e se deve fazer mais em um estágio ainda inicial de formulação de políticas? Pelo menos, precisa-se de mais trabalho no “como”, juntamente com o “o quê”: os métodos, os procedimentos e as instituições de que precisamos para fazer a ética na IA funcionar na prática. Precisamos prestar mais atenção ao processo.
Com relação à pergunta “quem” no âmbito da ética na IA, precisamos de mais espaço para as abordagens de baixo para cima, ao lado das abordagens de cima para baixo, no sentido de escutar mais os pesquisadores e profissionais que trabalham com IA na prática e, certamente, as pessoas potencialmente prejudicadas por ela. Se defendemos o ideal da democracia e se tal conceito envolve inclusão e participação na tomada de decisão sobre o futuro de nossas sociedades, a escuta das vozes das partes interessadas não é uma opção, mas um requisito ético e político. Enquanto alguns formuladores de políticas se engajam em algum tipo de consulta às partes interessadas (por exemplo, a Comissão Europeia possui sua Aliança para a IA [4]), permanece questionável se tal esforço realmente alcança os desenvolvedores, os usuários finais das tecnologias e – mais importante – aqueles que terão de se expor aos riscos e viver com as suas consequências negativas. De fato, quão democráticas e participativas são a tomada de decisão e a política sobre a ia?
O ideal da democracia também é ameaçado pelo fato de o poder estar concentrado nas mãos de um número relativamente pequeno de grandes corporações. Paul Nemitz (5) argumentou que tal acumulação de poder digital nas mãos de poucos é problemática. Se algumas empresas exercem poder não só sobre os indivíduos – elas acumulam poder nos categorizando –, mas também sobre as infraestruturas da democracia, então, apesar de suas melhores intenções em contribuir para uma IA ética, essas empresas também colocam barreiras para tal objetivo. Portanto, é necessário regular e definir limites para resguardar o interesse público e para ter certeza de que tais empresas não estipularão as regras sozinhas. Murray Shanahan também apontou a “tendência autoperpetuadora de poder, riqueza e recursos se concentrarem nas mãos de poucos”, (6) o que torna difícil chegar a uma sociedade mais igualitária. Isso também torna as pessoas vulneráveis a todo tipo de risco, incluindo exploração e violação de privacidade, por exemplo, o que um estudo do Conselho da Europa chama de “o efeito assustador do reaproveitamento de dados”. (7)
Se compararmos a situação descrita acima com a política ambiental, também podemos ser pessimistas sobre a possibilidade de países agirem efetiva e colaborativamente quanto à ética na IA. Considere, por exemplo, o processo político em torno das mudanças climáticas nos Estados Unidos, onde por vezes até mesmo o problema do aquecimento global e das mudanças climáticas em si é negado e onde forças políticas poderosas trabalham contra qualquer iniciativa, ou mesmo o limitado sucesso de conferências internacionais sobre o clima para se chegar a um acordo sobre uma política climática comum e efetiva. Aqueles que buscam uma ação global em face dos problemas éticos e sociais levantados pela IA podem encontrar dificuldades similares. Frequentemente, interesses diferentes do bem público prevalecem, e há bem pouca política intergovernamental sobre as novas tecnologias, incluindo a IA. Uma exceção é o interesse global em banir armas letais automáticas, que também têm um aspecto de ia. Mas isso permanece uma exceção, e também não é apoiado por todos os países (tal questão permanece controversa nos Estados Unidos, por exemplo).
Além do mais, apesar de bem-intencionada, a ética desde a concepção e a inovação responsável podem ter suas próprias limitações. Primeiramente, métodos como projeto sensível a valores pressupõem que podemos articular nossos valores, e os esforços para construir máquinas morais assumem que podemos articular plenamente nossa ética. Porém esse não é necessariamente o caso; nossa ética cotidiana pode não ser uma questão de raciocínio plenamente articulado. Algumas vezes podemos responder a problemas éticos sem sermos capazes de justificar completamente nossa resposta. (8) Tomando emprestado um termo de Wittgenstein: nossa ética não é só corporificada, mas também imbuída em uma forma de vida. Ela é profundamente conectada com o modo pelo qual fazemos algo como seres corporificados e sociais, e como sociedades e culturas. Isso coloca limites ao projeto de articular completamente ética e raciocínio moral. É um problema para o projeto de desenvolvimento de máquinas morais e desafia as suposições de que ética e democracia podem ser totalmente deliberativas. Tal questionamento também é um problema para os formuladores de políticas que pensam que a ética na IA pode ser resolvida com uma lista de princípios ou por meio de métodos jurídicos e técnicos específicos. Nós, com toda a certeza, precisamos de métodos, procedimentos e operações. Mas essas coisas não são suficientes; a ética não funciona como uma máquina, e as políticas e a inovação responsável também não.
Em segundo lugar, essas abordagens também podem desenvolver uma barreira para a ética quando seja eticamente necessário interromper o desenvolvimento de uma tecnologia. Com frequência, funcionam na prática como um tipo de óleo que ajuda a lubrificar a maquinaria da inovação, a aumentar a lucratividade e a garantir a aceitação da tecnologia. Isso não é necessariamente ruim. Mas e se os princípios éticos indicarem que a tecnologia, ou uma aplicação particular da tecnologia, deve ser cessada ou pausada? Crawford e Calo (9) argumentaram que o projeto sensível a valores e as ferramentas de inovação responsável trabalham com a premissa de que a tecnologia será desenvolvida; eles são menos úteis quando é necessário decidir se a tecnologia realmente deve ser desenvolvida ou não. Por exemplo, no caso da IA avançada, como as novas aplicações de aprendizado de máquina, pode ser que a tecnologia ainda não seja confiável ou tenha sérios problemas éticos e que, no mínimo, algumas aplicações (ainda) não devam ser usadas. Se a suspensão é sempre a melhor solução, ou não, a questão é que, no mínimo, devemos ter espaço para fazer a pergunta e decidir. Se falta esse espaço crítico, a inovação responsável continua sendo um disfarce para se fazer negócios como é de costume.
Dito isso, de modo geral a ética na IA não é necessariamente sobre banir coisas. (10) Outra barreira para fazer a ética na IA funcionar na prática é que muitos atores nesse campo, como empresas e pesquisadores técnicos, ainda pensam em ética como uma restrição, como algo negativo. Essa ideia não é completamente equivocada: frequentemente a ética tem de restringir, limitar ou dizer que algo é inaceitável. E, se levarmos a ética em IA a sério e implementarmos suas recomendações, podemos enfrentar algumas escolhas difíceis, em particular no curto prazo. A ética pode ter um custo em termos de dinheiro, tempo e energia. Contudo, ao reduzir riscos, a ética e a inovação responsável auxiliam o desenvolvimento sustentável de longo prazo dos negócios e da sociedade. Ainda é um desafio convencer todos os atores no campo da IA, incluindo os formuladores de políticas, de que esse é realmente o caso.
Note-se também que políticas e regulamentação não dizem respeito somente a banir coisas ou torná-las mais difíceis; elas também podem servir de suporte, oferecendo incentivos, por exemplo.
Além disso, mais do que uma ética negativa que estabelece limites, também precisamos explicitar e elaborar uma ética positiva: desenvolver uma visão da boa vida e da boa sociedade. Enquanto alguns dos princípios éticos propostos acima apontam para tal visão, permanece um desafio levar a discussão para essa direção. Como argumentado anteriormente, as questões éticas relativas à IA não são somente sobre tecnologia; envolvem vidas humanas e a prosperidade humana, o futuro da sociedade e, talvez, também os não humanos, o meio ambiente e o futuro do planeta. Discussões sobre a ética e a política da IA nos levam, então, mais uma vez, às grandes perguntas que precisamos nos fazer – como indivíduos, como sociedades e talvez como humanidade. Filósofos podem nos ajudar a pensar sobre essas questões. Para formuladores de políticas, o desafio é desenvolver uma visão ampla sobre o futuro tecnológico que inclua ideias sobre o que é importante, significativo e valioso. Enquanto, em geral, as democracias liberais sejam construídas para deixar tais questões para os indivíduos e supostamente “superficiais” no que diz respeito ao bem viver (uma inovação política que no mínimo evitou alguns tipos de guerras e tem contribuído para a estabilidade e prosperidade), à luz dos desafios políticos e éticos que enfrentamos, seria irresponsável negligenciar completamente as questões éticas mais substanciais e “profundas”. Políticas, inclusive políticas para IA, também devem tratar de ética positiva.
Para formuladores de tais políticas, porém, a maneira de proceder não é a de um voo solo, assumindo o papel do rei-filósofo platônico, mas encontrar o equilíbrio certo entre a tecnocracia e a democracia participativa. As questões colocadas dizem respeito a todos nós; todos somos partes interessadas nelas. Com isso, não podem ser deixadas nas mãos de poucos, sejam pessoas do governo, sejam de grandes corporações. Isso nos leva de volta às questões sobre como promover a inovação responsável e a participação no trabalho com as políticas de IA. O problema não tem a ver apenas com poder; tem a ver também com o bem: o bem para os indivíduos e o bem para a sociedade. Nossas ideias atuais sobre o bem viver e a boa sociedade, se pudermos realmente articulá-las, podem demandar muito mais discussões críticas. Deixe-me sugerir que, para o Ocidente, poderia ser útil no mínimo explorar a opção de tentar aprender com outros – no caso, os sistemas políticos não ocidentais e outras culturas políticas. Uma política de IA efetiva e bem-justificada não deve se furtar a tocar em discussões ético-filosóficas e político-filosóficas.
Há outras barreiras que precisamos superar se queremos tornar a ética na IA mais efetiva e apoiar o desenvolvimento responsável da tecnologia, evitando o que pesquisadores técnicos chamam de um novo “inverno da IA”: uma desaceleração do desenvolvimento e investimento na IA. Uma delas é a falta de interdisciplinaridade e de transdisciplinaridade. Ainda nos deparamos com uma importante lacuna de formação e entendimento entre, de um lado, pessoas das humanidades e ciências sociais e, de outro, pessoas das ciências naturais e engenharia, tanto dentro quanto fora da academia. Até aqui, falta apoio institucional para uma conexão substancial e significativa entre esses dois “mundos”, na academia e mais amplamente na sociedade. Mas, se realmente queremos ter uma tecnologia avançada ética – como uma IA ética –, precisamos trazer essas pessoas e esses mundos para mais perto uns dos outros, antes cedo do que tarde.
Isso requer uma mudança no modo pelo qual a pesquisa e o desenvolvimento são feitos – envolvendo não só técnicos e empresários, mas também pessoas das humanidades, por exemplo –, além de uma mudança em como nós educamos as pessoas, tanto os jovens quanto os não tão jovens. Precisamos garantir que, por um lado, pessoas com uma formação em humanidades tenham ciência da importância de pensar sobre as novas tecnologias, como a IA, e possam adquirir algum conhecimento sobre essas tecnologias e o que elas podem fazer. Por outro lado, cientistas e engenheiros precisam se tornar mais sensíveis aos aspectos éticos e sociais do desenvolvimento da tecnologia e seu uso. Quando aprenderem a usar a IA e, posteriormente, a contribuir para o desenvolvimento de uma nova tecnologia de IA, a ética deve ser vista não mais como um tópico marginal que possui pouca relação com suas práticas tecnológicas, mas como parte essencial dela. Idealmente, o significado de “fazer IA” ou “fazer ciência de dados” deveria, por conseguinte, simplesmente incluir a ética. De modo mais geral, podemos considerar a ideia de um tipo mais diversificado e holístico de formação (Bildung) ou narrativa que seja mais radicalmente interdisciplinar e plural, com respeito aos métodos e abordagens, seus tópicos e também suas mídias e tecnologias. Para ser direto: se engenheiros aprenderem a fazer coisas com textos e as pessoas das humanidades a fazer coisas com os computadores, haverá mais esperança para uma ética na tecnologia e para políticas que funcionem na prática.
Se essas diretrizes na política e na educação não saírem do papel e, de modo mais geral, se o projeto de uma IA ética falhar, teremos não só que enfrentar o risco de um “inverno da IA”; o risco final e, discutivelmente, mais importante é o desastre ético, social e econômico e os custos humanos, não humanos e ambientais relacionados. Isso não tem nada a ver com a singularidade, com exterminadores do futuro ou outros cenários apocalípticos sobre o futuro distante, mas com o lento, porém infalível aumento da acumulação de riscos tecnológicos e o consequente crescimento das vulnerabilidades humanas, sociais, econômicas e ambientais. Esse aumento dos riscos e vulnerabilidades está relacionado com o problema ético indicado aqui e nos capítulos anteriores, incluindo o uso ignorante e imprudente de tecnologias de automação avançadas como a IA. A lacuna na educação talvez esteja amplificando o que os riscos da IA fazem em geral: mesmo que a IA nem sempre crie diretamente riscos novos, ela também, e especialmente, multiplica os riscos existentes. Até aqui não há algo como uma “carteira de habilitação” para usar IA, e não há formação obrigatória em ética na IA para pesquisadores, técnicos, empresários, administradores governamentais e outras pessoas envolvidas na inovação, uso e políticas de IA. Há muitas IAs não domesticadas por aí nas mãos de pessoas que não conhecem seus riscos e problemas éticos, e que podem ter o tipo errado de expectativas sobre a tecnologia. O perigo é, mais uma vez, o exercício do poder sem conhecimento e (portanto) sem responsabilidade – e, pior ainda, sujeitar outros a isso. Se realmente existe algo como o mal, ele habita onde Hannah Arendt, filósofa do século XX, o situou: na alienação do trabalho e das decisões banais cotidianas. Assumir que a IA é neutra e usá-la sem entender o que se está fazendo contribui para tal alienação e, em última instância, para a corrupção ética do mundo. A política educacional pode nos ajudar a mitigar isso e, consequentemente, contribuir para uma IA benéfica e dotada de sentido.
Contudo, permanecem várias questões incômodas, talvez um pouco dolorosas, que são frequentemente negligenciadas nas discussões sobre ética e política da IA, mas que no mínimo merecem menção, se não muito mais análise. Ética em IA é somente sobre o bem e valor dos seres humanos, ou também devemos levar em conta valores, bens e interesses não humanos? E, mesmo se a ética na IA for principalmente sobre seres humanos, será possível que a questão da ética na IA não seja o problema mais importante para a humanidade tratar?
(1) Wessel Reijers et al., “Methods for Practising Ethics in Research and Innovation: A Literature Review, Critical Analysis and Recommendation”. Science and Engineering Ethics, v. 24, n. 5, pp. 1.437-81, 2018.
(2) “Portrayals and Perceptions of ai and Why They Matter”. The Royal Society, 11 dez. 2018.
(3) René von Schomberg (org.), Towards Responsible Research and Innovation in the Information and Communication Technologies and Security Technologies Fields. Luxembourg: Publications Office of the European Union, 2011. 4 Cf. Ver página The European AI Alliance da European Commission, online
(5) Paul Friedrich Nemitz, “Constitutional Democracy and Technology in the Age of Artificial Intelligence”. Philosophical Transactions of the Royal Society, v. 376, n. 2.133, 2018.
(6) Murray Shanahan, The Technological Singularity. Cambridge: mit Press, 2015, p. 166.
(7) Karen Yeung, “A Study of the Implications of Advanced Digital Technologies (Including AI Systems) for the Concept of Responsibility within a Human Rights Framework”. Estudo encomendado pelo Comitê de especia- listas em dimensões de direitos humanos do processamento automatizado de dados e diferentes formas de inteligência artificial do Conselho da Europa, 2018, p. 33.
(8) Paula Boddington, Towards a Code of Ethics for Artificial Intelligence. Cham: Springer, 2017.
(9) Kate Crawford e Ryan Calo, “There Is a Blind Spot in ai Research”. Nature, n. 538, pp. 311-13, 2016.
(10) P. Boddington, Towards a Code of Ethics for Artificial Intelligence, op. cit.
(11) Os termos mindless e mindlessness foram traduzidos respectivamente por “alienado” e “alienação”. [n. t.]
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
Por uma IA voltada para o bem viver. Artigo de Mark Coeckelbergh - Instituto Humanitas Unisinos - IHU