• Início
  • Sobre o IHU
    • Gênese, missão e rotas
    • Sala Ignacio Ellacuría e Companheiros
    • Rede SJ-Cias
      • CCIAS
      • CEPAT
  • Programas
    • Observasinos
    • Teologia Pública
    • IHU Fronteiras
    • Repensando a Economia
    • Sociedade Sustentável
  • Notícias
    • Mais notícias
    • Entrevistas
    • Páginas especiais
    • Jornalismo Experimental
    • IHUCAST
  • Publicações
    • Mais publicações
    • Revista IHU On-Line
  • Eventos
  • Espiritualidade
    • Comentário do Evangelho
    • Ministério da palavra na voz das Mulheres
    • Orações Inter-Religiosas Ilustradas
    • Martirológio Latino-Americano
    • Sínodo Pan-Amazônico
    • Mulheres na Igreja
  • Contato
close
search
  • Início
  • Sobre o IHU
    • Gênese, missão e rotas
    • Sala Ignacio Ellacuría e Companheiros
    • Rede SJ-Cias
      • CCIAS
      • CEPAT
  • Programas
    • Observasinos
    • Teologia Pública
    • IHU Fronteiras
    • Repensando a Economia
    • Sociedade Sustentável
  • Notícias
    • Mais notícias
    • Entrevistas
    • Páginas especiais
    • Jornalismo Experimental
    • IHUCAST
  • Publicações
    • Mais publicações
    • Revista IHU On-Line
  • Eventos
  • Espiritualidade
    • Comentário do Evangelho
    • Ministério da palavra na voz das Mulheres
    • Orações Inter-Religiosas Ilustradas
    • Martirológio Latino-Americano
    • Sínodo Pan-Amazônico
    • Mulheres na Igreja
  • Contato
search

##TWEET

Tweet

Estupidez artificial: o problema que ninguém anteviu

Mais Lidos

  • A herança crioula do Papa Leão XIV destaca a complexa história do racismo e da Igreja nos Estados Unidos

    LER MAIS
  • Guerrilheiro, refém, presidente, filósofo: a imensa vida de Pepe Mujica

    LER MAIS
  • A barbárie não brota de mentes desequilibradas, mas de uma racionalidade instrumental altamente calculada, a partir da concretização da tese benjaminiana de que “fascismo e progresso coincidem”, observa Manuel Reyes Mate

    O fascismo não é algo ultrapassado, mas uma forma de entender a Modernidade. Entrevista especial com Manuel-Reyes Mate

    LER MAIS

Vídeos IHU

  • play_circle_outline

    MPVM - 4º domingo de Páscoa – Ano C – A missão de cuidar da vida e cuidar da humanidade

close

FECHAR

Image

COMPARTILHAR

  • FACEBOOK

  • X

  • IMPRIMIR PDF

  • WHATSAPP

close CANCELAR

share

20 Novembro 2018

Falhas na criação dos algoritmos impactam a vida de milhões de pessoas.

Qualquer motorista que veja um sinal de “pare” onde um engraçadinho colou um adesivo dizendo “o ódio” sabe que continua sendo um sinal de “pare” e que é preciso parar. Já um carro autônomo será incapaz de reconhecê-lo em mais de 60% das vezes, e passará batido.

A reportagem é de Nuño Domínguez, publicada por El País, 18-11-2018.

Os sistemas de visão artificial confundem uma tartaruga de brinquedo com um rifle, e pessoas negras com gorilas. Esses dispositivos foram treinados para enxergar padrões, e bastam mudanças sutis de simetria para desnorteá-los, como demonstra o estudo dos sinais de trânsito publicado em abril por especialistas de várias universidades dos EUA.

As pessoas também evoluíram ao longo de milênios para enxergar padrões. “Somos feitos para identificar rostos, e os vemos nas nuvens, nas manchas da parede, fazemos isso continuamente”, explica José Manuel Molina, do grupo de inteligência artificial aplicada da Universidade Carlos III de Madri. Um humano conhece o contexto dessa imagem, sabe que se parece com um rosto, mas que na verdade é uma nuvem. Por outro lado, a experiência de vida de um algoritmo de visão se limita à base de dados com milhares de imagens com as quais é repetidamente treinado. “Os algoritmos foram desenhados para resolver problemas muito concretos, mas não para compreender o que está acontecendo ao seu redor, só veem sinais e aplicam sempre a mesma solução sempre. As máquinas são totalmente autistas, e lhes dar uma compreensão de seu entorno é muito complicado”, resume Molina. Essas falhas estão mudando a vida das pessoas. O sistema de inteligência artificial Compas usado para assessorar juízes nos EUA tem um viés e tende a desaconselhar a libertação dos negros mais frequentemente que a dos brancos. O algoritmo analisa 173 variáveis – nenhuma delas é a raça – e apresenta uma probabilidade de reincidência numa escala de 0 a 10. “A causa destes problemas é que as bases de dados com as quais estes algoritmos funcionam são da polícia, e nelas há importantes vieses racistas”, diz Ramón López de Mántaras, especialista em inteligência artificial do Conselho Superior de Pesquisas Científicas da Espanha (CSIC, na sigla em espanhol). Um estudo publicado neste ano sugere que o sistema tem uma margem de erro equiparável à de pessoas sem conhecimentos jurídicos. O problema não é tanto a máquina, e sim o risco de o juiz lhe delegue suas decisões.

Num nível muito menos grave, a aparente estupidez artificial espreita qualquer um que use a Internet, com anúncios onipresentes de coisas que já compraram ou que não lhe interessam. Uma vez mais, a culpa não é da máquina, e sim da falta de contexto. “Se procurarmos um produto na Internet, essa informação é pública e fica gravada, mas quando o compramos a transação é privada, o algoritmo não sabe que você fez a compra, é preciso ensiná-lo. Não é um erro, ele continua a lhe mostrar o que acha que vai lhe interessar, o continuará fazendo isso até que passe seu tempo de esquecimento”, explica Molina.

Neste caso, as bases de dados somos nós. Os assistentes domésticos de diálogo e os sistemas de análise de cookies na Internet são treinados e aprendem com nosso uso da rede. Às vezes, “o algoritmo detecta um padrão que não existe e começa a se comportar de uma forma concreta, por exemplo mostrando um anúncio no qual clicamos por engano uma ou duas vezes”, conta Carlos Castillo, especialista em inteligência artificial da Universidade Pompeu Fabra, de Barcelona. “Estes erros são como superstições que as máquinas adquirem. Temos que entender que os sistemas de computação podem se equivocar, o importante é saber por que e como corrigi-los.

Na Europa entrou em vigor uma regulação neste aspecto que nos permite ver quais perfis automáticos foram criados a nosso respeito, alterá-los, apagá-los e saber que informação sobre nós está sendo compartilhada, embora pouca gente se dê ao trabalho de fazer isso”, explica. As empresas donas dos algoritmos raramente divulgam detalhes de seu funcionamento. É o que acontece com o algoritmo de recomendação de vídeos do YouTube, explica o doutor em inteligência artificial Guillaume Chaslot, que trabalhou no Google (empresa dona do YouTube) entre 2010 e 2013. O canal de vídeo on-line “ganha um cêntimo de euro por hora”, relata. “A cada dia, em todo mundo, são assistidas um bilhão de horas, com o que se ganha muito dinheiro. O algoritmo que recomenda outros vídeos depois de uma reprodução tem como principal objetivo maximizar o tempo de permanência. O que acontece é que o algoritmo acaba recomendando vídeos sobre teorias conspiratórias, discursos de ódio, racistas ou sexistas, porque esses são os que têm um tempo de permanência maior. Em dois ou três cliques você pode acabar vendo um destes vídeos, mas tudo depende de cada usuário. O algoritmo é tão complexo que não pode rastrear cada uma das decisões individuais que tomou para recomendar um conteúdo. Claro que tudo isto é um acidente não pretendido pelos programadores.”

As empresas donas dos algoritmos raramente divulgam detalhes de seu funcionamento

Tweet

“Desde 2017 estamos introduzindo formas de melhorar o acesso à informação na Espanha, incluindo uma prateleira de notícias de última hora na página de início do YouTube e a prateleira de melhores notícias no buscador, que oferece conteúdo de fontes noticiosas verificadas depois de um evento importante”, diz Katherine Vargas, porta-voz do Google . “Além disso, anunciamos mais de meia dúzia de novas funcionalidades no último ano e um investimento global de 25 milhões de dólares [93,6 milhões de reais] para editores de notícias que produzam vídeos on-line para criar uma melhor experiência com as notícias”, acrescenta.

Chaslot acredita que “melhorou-se muito o sistema de busca, mas nem tanto o de recomendação”. O engenheiro criou um sistema de inteligência artificial que está continuamente assistindo o YouTube e seguindo as recomendações, de forma que é possível consultar os vídeos mais sugeridos de cada dia, entre os quais abundam conteúdos de rigor duvidoso. Chaslot é assessor do Centro para a Tecnologia Humana, formado por engenheiros e executivos saídos da indústria tecnológica e que tentam denunciar e reverter os efeitos negativos da tecnologia. “Atualmente estamos vivendo as consequências de que haja grandes empresas controlando as maiores plataformas de inteligência artificial, e não apenas investimentos dos governos e da sociedade civil para promover usos mais positivos”, alerta.

Soma-se à amplificação de conteúdos radicais nas redes sociais uma tendência a supervalorizar as capacidades das máquinas. “Imaginamos que haja um pequeno cérebro humano dentro do computador, mas não, é só programação e matemática”, explica Meredith Broussard, ex-programadora, professora de jornalismo na Universidade de Nova York e autora do livro Artificial Unintelligence (“estupidez artificial”). “Um sistema de visão artificial vê uma imagem, situa uma retícula de pixels sobre ela e busca padrões entre os pontos. Se enxergar arcos e formas ovaladas, dirá que é um rosto, mesmo que na realidade esteja olhando para um nabo. Por isso é importante ensinar às pessoas a desenvolverem programas de aprendizagem computacional. Em princípio soa a magia, mas é só escrever códigos. Quando veem isso, se sentem enganadas”, ressalta.

Broussard fala da “crença difundida entre a maioria dos programadores de que as soluções tecnológicas são sempre melhores que as humanas”.

“Os pioneiros deste campo diziam que o mundo da alta tecnologia seria glorioso e livre. Demoramos muito tempo a questioná-los. Mesmo agora é difícil para muitos aceitarem que o que imaginavam há 20 anos sobre como seria a tecnologia era um erro.”

Em julho de 2017, muitos acharam que o inevitável tinha acontecido. O Facebook havia desligado dois robôs de bate-papo porque tinham desenvolvido uma linguagem secreta para se comunicar, sem que seus programadores soubessem. Uma de suas conversas era:

– Bob : Eu posso eu eu o resto...

– Alice: Bolas têm zero para mim para mim para mim para mim para mim para mim para.

O objetivo dos programadores era criar algoritmos capazes de negociar com humanos, e para isso foram treinados para distribuir três tipos de objetos entre si: chapéus, bolas e livros. O objetivo principal era chegar a negociações bem-sucedidas, então os robôs começaram a usar repetições de palavras sem levar em conta sua coerência. Chegavam a acordos válidos segundo os parâmetros fixados pelos programadores, mas a conversa era incompreensível para os humanos, como revelou a Wired. “Foi um erro de programação. Nenhuma máquina tem intenções nem nunca as terá. Podem se acostumar a jogar Go e derrotar um campeão, mas não sabem que estão jogando. Se puséssemos essa mesma máquina para distinguir fotos de cães e gatos, esqueceria tudo o que aprenderam anteriormente. Só podem fazer uma coisa de cada vez”, salienta Mántaras. “É verdade que há alguns anos ninguém podia antever que a inteligência artificial estaria tão na moda e se falaria tanto dos problemas potencialmente associados a ela, mas faz já 42 anos que [o informático do MIT] Joseph Weizenbaum escreveu que nunca deveríamos deixar que os computadores tomassem decisões importantes, porque nunca terão qualidades humanas como a compaixão e a sabedoria”.

Leia mais

  • "A Inteligência Artificial pode se transformar em um monstro incontrolável". Entrevista especial com José Eustáquio Alves
  • A Inteligência Artificial pode fazer muita diferença em vários campos da nossa vida cotidiana. Entrevista especial com Dante Barone
  • Inteligência artificial - A disputa entre a busca da eficiência e os desafios ético-morais. Entrevista especial com Brian Green
  • Sistemas de inteligência artificial - Desafios e perspectivas. Entrevista especial com Claudio Jung
  • Contra a servidão ao algoritmo, o cooperativismo de plataforma. Entrevista especial com Trebor Scholz
  • A era do algoritmo. Empresas e governos "veem" sem serem vistos, agem sem serem percebidos. Entrevista especial com Paulo César Castro
  • Os algoritmos e a política. Nem bons ou ruins, os algoritmos também não são neutros. Entrevista especial com André Pasti e Marina Pita
  • A silenciosa ditadura do algoritmo
  • “Estamos injetando nos algoritmos as nossas limitações, a nossa forma de marginalizar”. Entrevista com Kate Crawford
  • A Era do algoritmo chegou e seus dados são um tesouro
  • Facebook e seu novo algoritmo: a distopia total
  • “Black Mirror” expõe nosso medo de robôs e algoritmos que fogem do controle
  • Um mundo regido por algoritmos tem potencial de acirrar desigualdades sociais
  • Ranga Yogeshwar, conhecido divulgador na Alemanha, alerta para a falta de controle político e moral sobre muitas inovações da era digital
  • A esquerda deve superar velhas concepções de ‘industrialização’ e política industrial
  • Robôs: O futuro é agora. Vídeo
  • Agência de notícias do governo chinês cria um “Apresentador com Inteligência Artificial” que parece humano (mas não é)

Notícias relacionadas

  • "A globalização é uma uma nova forma de colonização". Entrevista com Marc Augé

    LER MAIS
  • Igreja e internet: uma relação de amor e ódio. Entrevista especial com Moisés Sbardelotto

    Embora a Igreja tenha mantido uma relação de amor e ódio com os meios de comunicação e, em especial, com as mídias digitais,[...]

    LER MAIS
  • @Pontifex e os sacros tuítes: As redes sociais digitais segundo Bento XVI

    A mensagem de Bento XVI para o 47º Dia Mundial das Comunicações Sociais lança os desafios do papa à própria Igreja com rela�[...]

    LER MAIS
  • A Internet das coisas ganha vida

    A expressão criada pelo pesquisador Kevin Ashton há 13 anos começa a ganhar forma: as coisas conectam-se entre si através da I[...]

    LER MAIS
  • Início
  • Sobre o IHU
    • Gênese, missão e rotas
    • Sala Ignacio Ellacuría e Companheiros
    • Rede SJ-Cias
      • CCIAS
      • CEPAT
  • Programas
    • Observasinos
    • Teologia Pública
    • IHU Fronteiras
    • Repensando a Economia
    • Sociedade Sustentável
  • Notícias
    • Mais notícias
    • Entrevistas
    • Páginas especiais
    • Jornalismo Experimental
    • IHUCAST
  • Publicações
    • Mais publicações
    • Revista IHU On-Line
  • Eventos
  • Espiritualidade
    • Comentário do Evangelho
    • Ministério da palavra na voz das Mulheres
    • Orações Inter-Religiosas Ilustradas
    • Martirológio Latino-Americano
    • Sínodo Pan-Amazônico
    • Mulheres na Igreja
  • Contato

Av. Unisinos, 950 - São Leopoldo - RS
CEP 93.022-750
Fone: +55 51 3590-8213
humanitas@unisinos.br
Copyright © 2016 - IHU - Todos direitos reservados