15 Outubro 2024
Adela Cortina (Valência, 77 anos) nunca imaginou que escreveria um livro sobre Inteligência Artificial (IA). “Nós que trabalhamos no campo da ética temos muito interesse que o conhecimento progrida. A ciência e a tecnologia, bem direcionadas, são extraordinárias para a humanidade”, dispara ao iniciar a conversa com o El País. “A questão é que às vezes estão e às vezes não”. É disso que se trata a sua nova obra: Ética o ideología de la inteligencia artificial? (Paidós).
Professora emérita de Ética e Filosofia Política da Universidade de Valência e doutora honoris causa de oito universidades nacionais e estrangeiras, Cortina é uma das pensadoras mais conhecidas da Espanha. Foi a primeira mulher a ingressar na Real Academia de Ciências Morais e Políticas e é autora de mais de trinta livros, entre os quais se destacam Aporofobia: a aversão ao pobre (2017) e Para que serve realmente a ética? (Prêmio Nacional de Ensaio 2014). Nesta ocasião, a filósofa se concentra na tecnologia que monopoliza a atenção do mundo desde que, há dois anos, surgiu o ChatGPT.
A entrevista é de Manuel G. Pascual, publicada por El País, 11-10-2024. A tradução é do Cepat.
Por que você está preocupada com a IA?
Penso que [Karl-Otto] Apel e [Jürgen] Habermas tinham razão quando diziam que existem três interesses do conhecimento: o técnico, o prático e o da emancipação. Quando o interesse técnico é regido pelo prático, o da moral, leva a uma verdadeira emancipação da sociedade.
A IA é saber científico-técnico que deve ser conduzido para alguma direção. Se quem o controla são grandes empresas que querem poder econômico ou países que querem poder geopolítico, então, não há nenhuma garantia de que será bem utilizado. Se esta tecnologia afeta toda a humanidade, deve beneficiar toda a humanidade.
Considera que o debate em torno da IA está ideologizado?
No livro, concentro-me nas duas posições principais: a dos temorosos da IA, que acreditam que ela será a fonte de todos os males, e a dos mais entusiastas, os transumanistas e pós-humanistas, que acreditam que a IA ajudará a alcançar um mundo absolutamente feliz.
Há quem, como Ray Kurzweil [diretor de Tecnologia do Google], apresente data: diz que em 2048 teremos acabado com a morte. Isso seria ideologia, no sentido tradicional do termo: uma visão distorcida da realidade que é mantida para perseguir determinados objetivos. Aí não se está agindo como na ética.
Parece-me extremamente perigoso mentir, dizer que vamos solucionar tudo com a IA. O perigo dessa posição é que está assentada na autoridade da ciência, e isto faz com que as pessoas a levem a sério. Sou seguidora da Escola de Frankfurt, que diz que a ciência e a técnica são maravilhosas, mas quando se tornam ideologia, porque já são uma força produtiva, então, mudamos o sentido do assunto.
Quais princípios éticos deveriam reger uma IA confiável?
A sociedade emancipada é a que está livre de ideologias e para isso deve estar dotada de uma ética. Os princípios básicos são o da não maleficência (não causar danos), o da beneficência (fazer o bem), o da autonomia e o da justiça.
Além desses, existem os princípios da rastreabilidade e explicabilidade, um tema complicado quando lidamos com algoritmos, e o da prestação de contas. E há ainda o princípio da precaução, que nós, europeus, demonstramos.
Existe uma boa legislação sobre este assunto?
Nós, europeus, costumamos ser chamados de excessivamente normativistas, mas penso que não está errado sermos cautelosos, há vidas humanas em jogo. Isto não deve impedir que a pesquisa prossiga. É necessária uma ética da responsabilidade. Delimitar até onde chegamos na pesquisa não é simples.
No livro, você debate se a IA pode ser sujeito ou sempre será uma ferramenta. Já está na hora de um debate a este respeito?
Os especialistas dizem que, no momento, não chegamos à inteligência artificial geral, o que seria equiparável à dos seres humanos. Para isso, seria necessário que tivessem um corpo biológico, pois é a forma de ter significatividade, intencionalidade etc. O que temos são inteligências artificiais especiais, capazes de realizar muito bem certas tarefas, até melhor do que nós.
Penso que é muito importante sabermos onde estamos e que se abra um debate sério sobre isso. Hoje, é um instrumento e, portanto, deve ser utilizado para um fim ou outro, mas nunca para substituir os seres humanos. Não se pode substituir os professores, os juízes e nem os médicos por algoritmos. Os algoritmos não tomam decisões, mas fornecem resultados. É a pessoa que deve ser responsável pela decisão última.
Uma das consequências muito ruins que o uso da IA pode ter é a de transformar as máquinas em protagonistas da vida. É preciso ter muito cuidado porque temos tendência ao comodismo, e quando um resultado já vem dado, você pode ter a tentação de simplesmente adotá-lo.
Faz sentido falar de ‘roboeticistas’ ou de ética das máquinas?
Já há algum tempo que se tenta criar máquinas éticas que tenham uma série de valores incorporados. Parece-me muito interessante que esses códigos possam ser assumidos de alguma forma, seja nos algoritmos que dirigem veículos ou nos robôs que cuidam dos idosos, para que tomem decisões sem a necessidade de ter um humano perto o tempo todo.
Você dedica a última parte do livro para abordar a relação entre a educação e a IA. Por que você se concentra nesta atividade?
A educação é a chave de nossas sociedades e está muito descuidada. Na China, estão muito preocupados em aplicar a IA na educação, porque dizem que se explicamos às pessoas sobre o ontem, perdemos o amanhã.
Para mim, o tema central da educação é a justiça: há muitas pessoas que não têm acesso a essas ferramentas, o que faz com que a desigualdade aumente cada vez mais. Também estou preocupada com a autonomia. Uma das grandes tarefas do Iluminismo é potencializar a autonomia das pessoas, para que saibam dirigir suas próprias vidas.
Devemos educar para que haja cidadadãos críticos, maduros, que se movam por si, por suas próprias convicções. Que não se deixem levar por andadores, como dizia Kant, mas, ao contrário, que se guiem por sua própria razão.
E isso é muito difícil em um mundo onde as plataformas estão buscando que as dediquemos muito tempo para que coletem os nossos dados. Estão tornando o ensino superficial e as pessoas cada vez menos autônomas. Penso que a autonomia está em perigo e isto é ruim para a democracia.
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
Inteligência Artificial: “A autonomia está em perigo e isto é ruim para a democracia”. Entrevista com Adela Cortina - Instituto Humanitas Unisinos - IHU