16 Dezembro 2023
A presidente do Conselho Nacional de Pesquisas da Itália, Maria Chiara Carrozza, fala de uma revolução que muda a nossa vida. Estar fora dela multiplica as desigualdades. Os apelos do papa ao “senso do limite” e ao “pensamento crítico” são fundamentais. Os algoritmos não devem decidir por nós.
A reportagem é de Andrea Lavazza, publicada em Avvenire, 15-12-2023. A tradução é de Moisés Sbardelotto.
Maria Chiara Carrozza tem uma agenda muito cheia, mas a presidente do Conselho Nacional de Pesquisas (CNR, na sigla em italiano) – uma estudiosa de bioengenharia, ex-ministra da Universidade e reitora da Escola Superior Sant’Anna de Pisa - reserva um espaço para discutir a mensagem do papa. A interface entre inteligência artificial e ética é muito cara a ela.
Professora Carrozza, a mensagem do papa para o Dia Mundial da Paz oferece uma excelente panorâmica do tema da inteligência artificial. Um ponto qualificador da perspectiva de Francisco parece ser o do “senso do limite” em relação à “obsessão de controlar tudo”. Como você interpreta esse convite?
O tema da inteligência artificial abre inevitavelmente o debate sobre os riscos decorrentes de seu uso. Como cientista, posso dizer que há anos que a comunidade científica utiliza esse instrumento para alcançar resultados que até há poucos anos eram impensáveis, em múltiplos sectores: do setor médico-sanitário ao estudo do ambiente, até às aplicações no campo da segurança. Certamente existem limites de natureza ética na base do trabalho de quem faz pesquisa, mas sou da opinião de que a inteligência artificial é um instrumento que pode abrir novos caminhos para a inovação e que ela deve ser explorada e conhecida mais do que temida.
O convite ao “senso do limite” dirigido pelo Santo Padre é uma lembrança muito lúcida da nossa humanidade mais profunda. O “limite” da mente e do conhecimento humanos é aquilo a que a ciência, por sua natureza, tende. Um desafio contínuo e progressivo que se baseia no desejo de oferecer respostas a problemas não resolvidos.
O papa identifica um paradigma tecnocrático em que as desigualdades poderiam crescer dramaticamente. Você vê esse perigo? Como evitá-lo?
Hoje, estamos no centro de uma revolução tecnológica que está afetando o nosso modo de trabalhar, produzir, estudar, viver. Permanecer excluído dela significa inevitavelmente aumentar as desigualdades e limitar as oportunidades de crescimento e de desenvolvimento justamente daqueles países e daquelas áreas do mundo que mais necessitariam delas para emergir. O avanço muito rápido da inteligência artificial impõe à comunidade científica um dever que é ao mesmo tempo moral e profissional: o de estar pronta para lidar com os efeitos do progresso dessa tecnologia, ativando todos os recursos possíveis para aproveitar as oportunidades e reconhecer os riscos associados.
As soluções dependem de uma série de fatores e de escolhas que dizem respeito às instituições internacionais, aos governos, à diplomacia. Contudo, como também recordou recentemente o presidente da Itália, Sergio Mattarella, na cerimônia de encerramento do centenário do CNR, a ciência pode e deve ser um instrumento de paz, servindo de “ponte” entre as nações e superando barreiras políticas e culturais. Compartilhar conhecimentos e recursos, de fato, é por si só uma forma de mitigar as desigualdades, promover a paz e a prosperidade econômica.
O texto diz que o respeito pela dignidade humana exige que se recuse que a singularidade da pessoa seja identificada pela inteligência artificial com um conjunto de dados. O algoritmo pode levar a melhor sobre as prerrogativas humanas?
Não, se a pessoa permanecer no centro do progresso e se a atividade de quem faz ciência e inovação for orientada a um “humanismo científico”: isto é, um modelo em que a evidência científica é o método, e o serviço à humanidade é o fim. Ficou evidente que a tecnologia pode ser utilizada para melhorar a qualidade de vida das pessoas – quer se trate de uma pessoa com deficiência ou de um trabalhador que exerce uma atividade extremamente desgastante – mas nunca, em nenhum contexto e com nenhum instrumento, se pode deixar que algoritmos pré-fabricados levem a melhor.
O tema dos sistemas de armas autônomas é crucial no contexto do discurso sobre a paz. Quais são os riscos e o que fazer? Os cientistas podem desempenhar um papel nisso?
A relação entre ciência e aplicações militares sempre existiu: pensemos naquele agosto de 1945 em que foi lançada uma bomba de efeitos devastadores sobre as cidades de Hiroshima e de Nagasaki, de algum modo fruto dos estudos sobre os átomos. Hoje, no caso das armas autônomas ou dotadas de inteligência artificial, estamos novamente diante de uma tecnologia avançada com implicações éticas fortemente negativas, mas com uma diferença em relação a então: a maior consciência das consequências dessas inovações e o dilema ético que surge nas comunidades científicas.
Tanto que, em muitos lugares, se discute em nível supranacional sobre a possibilidade de uma moratória para esse tipo de armas letais. No delicado contexto geopolítico atual, a tarefa do mundo científico é o de alavancar o espírito de colaboração e de cooperação da ciência em nível internacional. Conjugar eficazmente saberes e competências transversais, e disponibilizá-los à sociedade são uma forma de “solidariedade científica” que pode se revelar um instrumento crucial para enfrentar os desafios do presente e construir um futuro mais resiliente e sustentável.
Francisco elogia o progresso científico, mas analisa as armadilhas da inteligência artificial. No fim, ressalta todas as oportunidades positivas que, mesmo assim, podem surgir. Como aproveitá-las ao máximo em favor de todos?
Concordo que é importante transmitir à sociedade uma visão positiva de como muitas tecnologias baseadas na inteligência artificial podem contribuir para melhorar a qualidade de vida, do ambiente, da produção: isso pode ser feito favorecendo uma atitude de confiança na ciência, de partilha de seus valores e de seu papel na sociedade atual.
Há um lembrete interessante na mensagem sobre a necessidade de educar para o pensamento crítico. A disseminação da inteligência artificial generativa (ChatGPT) pode introduzir formas de homologação do pensamento? E em benefício de quem controla a tecnologia?
Programas como o ChatGPT abriram um amplo debate, porque, pela primeira vez, estamos diante de instrumentos que podem automatizar a nossa atividade cognitiva, ou seja, aquilo que mais nos caracteriza como seres humanos. A perda de um pensamento crítico próprio certamente é uma das consequências extremas do uso dessa tecnologia: nesse sentido, é preciso fazer uma reflexão profunda para entender quais são, por outro lado, as vantagens que podem derivar de sua difusão.
Portanto, será preciso pensar em novos modelos de apoio, programas de reskilling e de formação para redesenhar os novos equilíbrios que estão sendo criados. Nesse contexto, a ciência e a pesquisa têm um papel crucial, estimulando a inovação e a observação, e oferecendo as evidências científicas a serviço dos decisores políticos. A pesquisa italiana já está fortemente envolvida no tema da inteligência artificial. Para citar um exemplo, estou pensando na parceria ampliada FAIR (Future Artificial Intelligence Research), liderada pelo CNR, que representa um projeto coletivo muito ambicioso, profundamente orientado para o futuro, que quer contribuir para a definição de metodologias, tecnologias, modelos de inteligência artificial, sem ignorar os aspectos éticos e legais. Se olharmos para o debate sobre a IA Act, iniciado em abril de 2021, podemos dizer que estamos caminhando para uma abordagem “humano-cêntrica”, que coloca no centro a proteção dos valores e dos direitos fundamentais da pessoa.
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
Ninguém deve ser excluído da inteligência artificial. Entrevista com Maria Chiara Carrozza - Instituto Humanitas Unisinos - IHU