02 Novembro 2022
Empresas de inteligência artificial já prometem “recriar a consciência” dos mortos e dialogar com eles. Seria enfim a vida eterna, livre do corpo, reduzido a casca? Ou o comércio do eu futuro? E o que somos, neste caso: apenas feixe de informações?
A reportagem é de Ingrid Guardiola, publicada por Barcelona Centre for International Affairs e reproduzida por OutrasPalavras, 04-10-2022. A tradução é de Rôney Rodrigues.
Em uma de suas publicações mais recentes, Nick Srnicek, professor de economia digital do King’s College em Londres, define o capitalismo de plataforma como aquele baseado em plataformas digitais globais que funcionam como infraestruturas de extração de dados. Essas plataformas utilizam a informação como recurso e obtêm seus benefícios das redes, monitoramento de comunicação e monetização de dados. Em suas origens, as plataformas sociais eram dedicadas a estimular a socialização e o compartilhamento de conteúdo que achamos estimulante ou divertido. No entanto, o fenômeno mudou para o que Alex Rosenblat descreve em seu livro Uberlândia (2018) como a economia compartilhada (sharing economy), um “artefato do populismo econômico”. Atualmente, essas plataformas se apresentam como prestadoras de serviços; um exemplo é a rede social Blued, voltada para a comunidade gay chinesa, que inclui uma ampla gama de serviços monetizados como o streaming, feeds de notícias, jogos, compras online ou aconselhamentos sobre barriga de aluguel no exterior. Os streamers são considerados “ativos corporativos”, ferramentas de extração de fluxo de dados, pois funcionam a partir de algoritmos, ou seja, de instruções para processar os dados gerados. A assimetria entre empresas e sujeitos de dados (data subjects) é enorme, a ponto de a ONU publicar um relatório em maio de 2020 com um título revelador: “Propriedades econômicas de dados e tendências monopolísticas na economia de dados: políticas para limitar uma possibilidade orwelliana” [1].
Esses espaços virtuais nos fascinam porque remetem a um Éden primordial, atualizam uma espécie de “mito da abundância” que vende a ideia de que em seu interior está tudo e que, se você não participar, fica fora do mundo. No entanto, longe do aparente livre arbítrio, a margem de decisão do usuário é limitada por um pequeno grupo de best choises, em cuja primeira filtragem o usuário delegou ao sistema de recomendações algorítmicas dos aplicativos. Este sistema está se tornando cada vez mais sofisticado; por exemplo, o aplicativo de contato Tinder já utiliza o Rekognition, um software de Inteligência Artificial (IA) desenvolvido pela Amazon para classificar fotos e, assim, estabelecer relacionamentos entre pessoas com base em elementos comuns, além de suas preferências expressas em perfis. As plataformas também se encarregam de recordar por nós; desde 2016, o tempo algorítmico das redes modula kairologicamente nossos momentos mais relevantes, dispensando-nos da necessidade de ponderá-los por nós mesmos. Todas essas plataformas coletam dados, pontuam e quantificam a partir de likes, shares, views… o que está dando origem a uma “sociedade pontuável” (scored society), uma espécie de casting sem fim; também isolam e segmentam usuários por meio de filtros de bolhas, que polarizam opiniões e criam as circunstâncias: a rede social te dizer o que você quer ou não quer ver; o resultado, no entanto, escapa aos nossos comandos e, em última análise, é o algoritmo que escolhe o que desfila diante de nossos olhos, condicionando assim nossas opiniões e nossas ações. Por alguns anos, além disso, os aplicativos aprenderam, graças a programas complexos de processamento da linguagem natural e, com base nesse aprendizado, conversam conosco (chatbot, assistentes de voz etc.), predizem e criam.
Já na década de 1980, Shoshana Zuboff nos alertava que a computação não só possibilita automatizar tarefas (como a Ford já fazia com o sistema de linha de produção), mas que informações são geradas em cada processo de automação – e esses dados são usados para prever o comportamento de usuários e alterá-los de uma forma ou de outra. O resultado é um produto preditivo – que ela chama de behavioural data – que se alimenta de modelos comportamentais. O que é comercializado é o futuro, ou seja, tudo o que é introduzido nessas fábricas comportamentais é tudo o que se vai perder ao final. Desde 2012, muitos estudos foram realizados sobre a capacidade preditiva dessas ferramentas com base em uma análise exaustiva dos likes (ver, por exemplo, os experimentos técnico-acadêmicos de Michel Kosinski). No entanto, é a partir de 2015 que muitas empresas orientam as suas estratégias para a Inteligência Artificial preditiva; assim, o machine learning – ou maquinário de aprendizado automático baseado em redes neurais, como o Google Deep Mind – torna-se relevante. Este tipo de algoritmos – além do deslumbramento que podem causar – criam formas inclusivas e exclusivas de ordem social. Estudos como os da já citada Shoshana Zuboff, ou os de Cathy O’Neil, Virginia Eubanks ou Kate Crawford chamam a atenção para a capacidade de penetração das tecnologias baseadas em Inteligência Artificial e como, devido à sua programação tendenciosa, acabam por reproduzir os mesmos preconceitos e violências que persistem em nossa sociedade: racismo, classismo, misoginia… Toda a informação que entregamos volta para nós e nos modula, ou seja, dá forma a nossa visão de mundo, assim como a nossa relação ética e moral com os outros, pois afeta o que Darwin chamava de “poder sensorial”, ou seja, o conjunto de faculdades associadas ao cérebro. Em artigo recente para o Centro de Cultura Contemporânea de Barcelona (CCCB), Karma Peiró e Ricardo Baeza-Yates afirmaram que uma solução parcial para o viés da IA seria criar um assistente virtual que atuasse como a voz da consciência e nos colocasse em alerta contra os preconceitos – de ação ou julgamento – e as possíveis manipulações tendenciosas de sistemas inteligentes. No entanto, ao delegar nossa autoconsciência às máquinas, não estaríamos dando um passo na lógica de vigiar e punir? Para uma menor compreensão do mundo? Para uma total inépcia na gestão dos conflitos pessoais e coletivos?
No final de janeiro de 2021, materializou-se a possibilidade de que essas inteligências artificiais pudessem fazer o que os humanos são incapazes de fazer: ressuscitar os mortos, ou seja, simular consciências a partir de um “poder sensorial” sintético aplicado ao nosso rastro digital. A Microsoft registrou uma patente de IA para desenvolver um chatbot que permitiria interagir com recriações digitais de entes queridos falecidos ou simular um diálogo consigo mesmo em uma idade específica. O sistema reuniria um pastiche de respostas predefinidas de imagens, dados de voz, postagens de mídia social e e-mails da pessoa falecida. Já vimos os primeiros testes, como o descrito no documentário sul-coreano Meeting you (2016), em que uma menina morta foi recriada usando um holograma com base nas informações fornecidas aos programadores, ou quando Kanye West deu a Kim Kardashian um holograma de seu pai morto em que ele fazia um discurso breve e emocionado – que nunca aconteceu, mas que recompunha fragmentos de expressões, de dados reais. Em nenhum dos casos houve a possibilidade de interação; mas essa possibilidade existe no projeto piloto Eterni.me (2015), um aplicativo que visa permitir que o usuário interaja com avatares de pessoas falecidas.
De fato, a patente da Microsoft trata especificamente disso, e é um avatar (semelhante a um tamagochi) que atua como o biógrafo do futuro falecido; em pouco tempo, 46 mil pessoas se inscreveram para o experimento. O que se desenha aqui é a figura do transumano, o sonho prometeico de magnatas como Raymond Kurzweil, promotor da singularidade tecnológica; isto é, abandonar a casca humana – o corpo – e se tornar informação, tal como ansiava o protagonista da série de televisão Years and Years (2019, BBC). Se a morte não é o eixo pelo qual damos sentido às nossas vidas, então quais serão as experiências determinantes que configurarão nossa subjetividade e nossos rituais sociais? E se tudo o que fazemos nesta vida está armazenado em nossa hipervida, isso não seria um fator condicionante muito poderoso? Não levará à autocensura, à fiscalização de nossas ações e nossa moral, como aconteceu com a aplicação fundamentalista da religião? E dado que o ser humano se dota de sentido a partir da experiência (duração) e evolui com ela, como evoluirá essa consciência? Certamente, eliminar a morte de nossas vidas pode implicar uma perda da dimensão ética do viver. O ser humano trabalha há séculos na relação entre conhecimento, autocuidado, relação entre consciência e culpa, e aprender a morrer. A isso devemos acrescentar o que disse Montaigne: “quem aprende a morrer aprende a não servir. Saber morrer nos liberta de todos os ataduras e coerções”.
A possibilidade de reviver ou ser recriado em um corpo artificial reduz a vida a uma série de versões, uma espécie de hipótese identitária. O que somos então seria apenas uma versão beta, provisória, matéria-prima (raw material) da qual a versão aumentada (digital) seria composta uma vez que o corpo morresse. Isso nos tornaria servos do nosso eu futuro, “seres disciplinados para parecerem máquinas”, como diz Kate Crawford, que vivem uma vida em diferentes atos. Essa pluralidade de versões não tem nada a ver com liberdade, mas com segurança: cada um se sentiria seguro em sua própria versão futura dos acontecimentos.
A todas essas questões sobre nossa relação com a hipervida poderíamos acrescentar considerações sobre a natureza da máquina: compreenderá o mundo que ela recria sintaticamente? Esse protótipo de identidade poderia ser considerado uma consciência? Será capaz de evoluir como nós humanos fazemos? Estará capacitada para tomar decisões éticas, uma vez que neste momento apenas tomam decisões econômicas, médicas ou jurídicas? E se ela não for treinada para nenhum dos itens acima, em que o meu eu futuro será diferente de uma máquina?
1-Ver Wai, H. e Cheng, J. “Propriedades econômicas dos dados e as tendências monopolísticas da economia de dados: políticas para limitar uma possibilidade orwelliana”. Documentos de Trabalho das Nações Unidas, Documento de Trabalho DESA n. 164, 17 de maio de 2020. Disponível aqui.
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
Morte, a última fronteira da Big Tech? - Instituto Humanitas Unisinos - IHU