Com a comercialização da web, o fracasso da tentativa de autorregulação teve sérios custos sociais e econômicos, como a desinformação online.
A análise é de Luciano Floridi, filósofo italiano e professor de Ética da Informação na Universidade de Oxford, na Inglaterra. O artigo foi publicado em Corriere della Sera, 05-11-2021. A tradução é de Moisés Sbardelotto.
Se eu tivesse que escolher um ano para marcar o início da web comercial, eu sugeriria 2004, quando o Facebook foi lançado, e o Google fez a sua IPO (“initial public offering”, oferta pública inicial para cotar uma empresa no mercado). Antes disso, o debate sobre os problemas éticos – da privacidade ao bias, da moderação dos conteúdos ilegal ou não éticos às notícias falsas e à desinformação – havia sido principalmente acadêmico. Eram problemas previsíveis e, desde o fim dos anos 1980, nos congressos, nas revistas especializadas ou em seminários universitários, nós os discutíamos como fundamentais e prementes, ética e socialmente.
Na primeira conferência da International Association for Computing and Philosophy (da qual fui presidente), em 1986, entre os temas do programa estavam: o ensino online; como ensinar lógica matemática com software que rodava em DOS (o Disk Operating System introduzido pela IBM em 1981, do qual eu ainda tenho os disquetes em algum lugar do sótão); e algo que então se chamava de “computer ethics”, que se tornaria “information ethics” e que hoje se chama “digital ethics”. Mas ainda era cedo demais. A prevenção não se aplica, lamenta-se durante o tratamento.
Mais ou menos depois de 2004, as preocupações começaram a se espalhar também pela opinião pública. A comercialização da web trouxe para a vida de todos os dias problemas éticos já presentes em contextos especializados, como o spyware, o software que coleta dados sem o consentimento do usuário (o termo nasceu em 1995).
Logo começou a aumentar a pressão para melhorar as estratégias e as políticas empresariais e adequar o quadro normativo. Foi naquele período que a autorregulamentação começou a aparecer como uma estratégia útil para enfrentar a crise ética.
Lembro-me de encontros em Bruxelas nos quais muitos defendiam o valor da autorregulamentação, em contextos como a liberdade de expressão online. Já naqueles anos, o Facebook insistia na oportunidade de não legislar, mas de agir de forma “soft” (usa-se a expressão “soft law” também em italiano para se referir a normas desprovidas de eficácia vinculante direta), por meio de códigos de conduta que, por exemplo, garantiriam a presença na plataforma apenas de pessoas com mais de 13 anos de idade.
Circulava a ideia de que a indústria digital podia formular seus próprios códigos e padrões éticos, solicitar e monitorar a adesão a eles, sem a necessidade de controles ou imposições externos. Não era uma má ideia. Eu mesmo muitas vezes a defendi. Muitas relações internacionais se baseiam na soft law. Por exemplo, o Conselho da Europa promove o respeito pelos direitos humanos, pela democracia e pelo Estado de direito por meio de recomendações que indicam os comportamentos e os resultados desejáveis, mas sem sanções em campo de não observância.
Recentemente, eu introduzi e defendi a necessidade de uma ética soft (não apenas a hard, ou dura, que aprendemos na vida e que estudamos nos clássicos), que respeite, mas vá além da mera adequação (compliance) à lei em vigor. Por exemplo, pagar os seus próprios funcionários mais do que o exigido pela normativa também é uma questão de ética soft. Teoricamente, por meio da autorregulamentação, a ética soft e a soft law, as empresas poderiam adotar modelos de comportamento melhores, mais adequados eticamente às exigências comerciais, sociais e ambientais, de forma mais rápida, ágil e eficiente – fatores fundamentais em um setor que evolui tão rapidamente quanto o digital – sem ter que esperar por uma nova legislação ou acordos internacionais. Quando desenvolvida e aplicada corretamente, a autorregulamentação pode evitar desastres, aproveitar mais oportunidades e preparar a indústria para se adequar a futuros marcos jurídicos. Também pode contribuir com a própria legislação, antecipando e experimentando soluções que sejam mais facilmente atualizáveis e melhoráveis.
Eu continuo convencido de que, naqueles anos, era realista e razoável acreditar que a autorregulamentação poderia favorecer um diálogo eticamente construtivo e frutuoso entre a indústria digital e a sociedade. Como argumentei várias vezes, valia a pena tentar o caminho da autorregulamentação, pelo menos em um sentido complementar à legislação em evolução. Infelizmente, não foi assim.
Se eu tivesse que escolher outro ano, desta vez para indicar a maioridade da era da autorregulamentação, eu sugeriria 2014, quando o Google instituiu o Advisory Council (do qual eu fui membro) para enfrentar as consequências da sentença sobre o “direito ao esquecimento” da Tribunal de Justiça da União Europeia.
Foi a primeira de muitas outras iniciativas semelhantes. Aquele projeto teve muita visibilidade e um sucesso moderado, mas, no geral, a era da autorregulamentação foi decepcionante depois.
Nos anos posteriores, o escândalo Facebook-Cambridge Analytica em 2018 – previsível e evitável – e o Advanced Technology External Advisory Council, claramente mal concebido e de brevíssima duração, instituído pelo Google sobre a ética da inteligência artificial em 2019 (do qual eu fui membro), mostraram como a autorregulamentação era difícil e, em última análise, falimentar.
No fim, as empresas mostraram-se relutantes ou incapazes de resolver os seus problemas éticos, não necessariamente em termos de recursos, lobby e relações públicas, mas em termos de estratégia de alto nível, em nível de C-suite, para melhorar mentalidades e comportamentos equivocados, mas enraizados demais.
Recentemente, quando a indústria reagiu aos desafios éticos impostos pela inteligência artificial, criando centenas de códigos, diretrizes, manifestos e declarações, o vácuo da autorregulamentação pareceu constrangedor. Hoje, o Oversight Board do Facebook, instituído em 2020, é um anacronismo, uma reação tardia ao fim de uma era em que a autorregulamentação não conseguiu fazer a diferença.
É tarde demais, até porque a legislação já alcançou a indústria digital. Em particular, na União Europeia, o GDPR (Regulamento Geral sobre a Proteção de Dados, em vigor desde 2016) foi seguido por iniciativas legislativas como o Digital Markets Act, o Digital Services Act e o AI Act, para citar os mais significativos. É um movimento normativo que provavelmente gerará um vasto efeito Bruxelas, substituindo um compromisso ético, que realmente nunca decolou, pela conformidade legal (compliance).
As empresas têm um papel crucial a desempenhar para além dos requisitos legais. A ética soft continua sendo um elemento essencial de aceleração competitiva e de “boa cidadania”. Mas a era da autorregulamentação, como estratégia principal para resolver os problemas éticos do digital, se concluiu. Ela deixa como herança um bom trabalho de limpeza do terreno, em termos de análise dos problemas e das suas soluções, de consciência cultural e social, de sensibilidade ética e também de algumas contribuições positivas para a legislação.
Por exemplo, o High-Level Expert Group on Artificial Intelligence (do qual eu fui membro), instituído pela Comissão Europeia, contou com a participação de parceiros industriais e forneceu o quadro ético para o AI Act. No entanto, o convite para se autorregulamentar, dirigido pela sociedade à indústria digital, tem sido amplamente ignorado.
Foi uma oportunidade histórica enorme, mas perdida, muito custosa social e economicamente; basta pensar nas consequências da desinformação online. Chegou a hora de reconhecer que ela não funcionou e, para usar as palavras do Evangelho, “forçá-las [as empresas] a entrar” (Lucas 14,23).