25 Julho 2019
Quando pensamos em inteligência artificial, podemos imaginar robôs capazes de se apaixonar por seres humanos, máquinas que aprendem por si mesmas ou um futuro em que os androides enfrentem a Humanidade. Embora ainda estejamos longe dessa realidade possível, a inteligência artificial já está presente em nossa rotina na forma de recomendação de conteúdo, tradução instantânea ou reconhecimento de voz. O jornalismo não escapa da irrupção da inteligência artificial e o novo panorama está gerando oportunidades e inquietações ao mesmo tempo.
A reportagem é de Silvia Nortes publicada por Ctxt, 24-07-2019. A tradução é do Cepat.
Em 2013, a agência de notícias estadunidense Associated Press começou a usar a ferramenta Automated Insights para produzir histórias a partir de dados. Primeiro foram as notícias esportivas. Depois, os relatórios corporativos. O Washington Post utiliza o sistema Heliograf para notícias políticas e esportivas. No Los Angeles Times, o Bot Quake informa imediatamente quando ocorre um terremoto. A lista de meios de comunicação que usam a inteligência artificial diariamente continua com a CNN, Forbes e The Wall Street Journal, entre muitos outros.
Como observa a Associated Press em seu Guia para redações na era das máquinas inteligentes, muitos meios de comunicação são capazes de treinar jornalistas para analisar dados, identificar padrões, converter dados em texto e obter maior velocidade, exatidão e diversidade de cobertura.
Tomemos o caso dos Papéis do Panamá. Cerca de 400 jornalistas do Consórcio Internacional de Jornalismo Investigativo (ICIJ, sigla em inglês) trabalharam durante dois anos analisando 2,6 terabytes de dados. O ICIJ não utilizou inteligência artificial no início da investigação. "Se eu tivesse feito isso", diz Caruana Galizia, desenvolvedor web do ICIJ, "esse processo teria sido muito mais rápido para os jornalistas".
No entanto, o uso de inteligência artificial no jornalismo coloca uma série de dilemas éticos relacionados aos valores substanciais da profissão.
Imparcialidade é uma delas. A aplicação da tecnologia inteligente supõe a conquista da tão almejada objetividade completa? Os pesquisadores são claros sobre a resposta. “A inteligência artificial é projetada por humanos e os humanos cometem erros. Um sistema de inteligência artificial é tão bom quanto os dados que a alimenta”, assinalam da Associated Press. "Igualmente importante é verificar a confiabilidade de uma fonte como a de um sistema de inteligência artificial".
O aprendizado de máquina ou machine learning se refere ao modo como um sistema pode ser ajustado automaticamente sem necessidade de que lhe deem ordens. Os algoritmos, portanto, evoluem com a experiência. Assim, se os sistemas são capazes de tomar suas próprias decisões, podem cair na parcialidade, tanto como os humanos que os programaram.
A precisão do jornalismo automatizado será possível sempre que o algoritmo de base esteja livre de vieses ideológicos e os programadores não distorçam os dados. Isso é o que afirma o jurista Matteo Monti em seu estudo Problemas Éticos y Jurídicos Relacionados con la IA en Prensa, no qual aponta para o princípio ético da exatidão como um guia na hora de buscar dados. "Buscar os dados mais rigorosos e verificar diferentes bancos de dados é uma excelente maneira de evitar erros embaraçosos ou espalhar notícias falsas", reitera.
Em quem recai a responsabilidade por uma peça gerada pela inteligência artificial é outra questão espinhosa. É responsável o processo de aprendizado autônomo do algoritmo? Ou foi quem o projetou em um primeiro momento?
Na hora de projetar algoritmos, o critério daqueles que os desenvolvem são fundamentais. Como assinala Bennie Mols, jornalista científico, especializado em inteligência artificial, “são os seres humanos que construíram e projetaram a inteligência artificial e introduziram valores morais em seu código. Os humanos sempre deveriam ser responsáveis, porque a tecnologia está em suas mãos”.
Assim, os processos de controle de sistemas são indispensáveis. Processos que só podem estar nas mãos de jornalistas de carne e osso. Que uma peça jornalística tenha sido gerada por uma ferramenta que consideramos mais inteligente, eficiente e eficaz não é sinônimo de exatidão.
"Os algoritmos não cometem erros ortográficos, nem aritméticos", diz Lisa Gibbs, editora de negócios internacionais da Associated Press. “Os erros são devido a problemas com os dados. Se os dados forem ruins, você terá uma história ruim”.
A moral é, então, que devemos confiar em nosso colega eletrônico apenas para determinadas tarefas (tradução automática, busca e processamento de dados, histórias curtas sobre esportes, meteorologia e finanças, detecção de notícias falsas ...), sendo o jornalista o responsável por monitorar o processo para garantir um bom resultado final.
Para isso, a colaboração com programadores é essencial. A Universidade de Columbia alerta que muitos dos problemas colocados pela inteligência artificial se devem à falta de conhecimento dos engenheiros que geram o código sobre os valores editoriais do jornalismo.
Nesse sentido, Mols enfatiza que “os engenheiros devem saber como os jornalistas trabalham e vice-versa. Tanto a ciência computacional quanto o jornalismo transformam informações para agregar valor. Uma nova disciplina está se desenvolvendo em torno disso: o jornalismo computacional”.
Uma vez que a peça é publicada, o leitor entra em jogo. Até que ponto consumiríamos reportagens, documentários, crônicas ... feitas por máquinas? A transparência é fundamental na ética jornalística. Deve-se, então, informar o grau de emprego da inteligência artificial?
Matteo Monti menciona que os dados poderiam, por exemplo, vir de uma fonte com alguma orientação política. "Assim como o público tem o direito de conhecer a ideologia política de um jornal, o mesmo acontece com a origem dos dados usados e sua orientação".
Os pesquisadores da Columbia também insistem no dever dos jornalistas em descrever as decisões tomadas quando constroem algoritmos e apontam qualquer tendência que possam gerar.
"Quanto maior for o papel que a inteligência artificial desempenha no resultado final, mais importante é deixar o público saber", conclui Mols.
A solução para os “nós” éticos que a inteligência artificial traz consigo pode ser a criação de códigos de conduta que guiem os programadores e jornalistas na preservação dos valores tradicionais do jornalismo. Mesmo que ainda não se tenha desenvolvido nenhum documento deste tipo, debates e iniciativas estão sendo gerados com intuito de lançar alguma luz e descobrir o caminho comum a ser seguido.
O Centro Europeu dos Meios de Comunicação e da Ciência do Parlamento Europeu realizou em junho passado, em Estrasburgo, a Jornada Europeia de Meios de Comunicação e Ciência, dedicada à introdução de jovens jornalistas no uso da inteligência artificial.
Também Polis, o think-tank de jornalismo da London School of Economics, e a Google News Initiative lançaram, no final de 2018, Journalism AI, um projeto que busca fomentar a reflexão em torno da inteligência artificial nas redações de todo o mundo.
A inteligência artificial não é o futuro, mas, sim, o presente, e a adaptação é a única opção para os jornalistas. Companheiros dos meios de comunicação, parece que a automação vai dar muito o que falar, então preparem suas canetas. Se ainda não tiverem mudado para um tablet.
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
A inteligência artificial também muda o jornalismo - Instituto Humanitas Unisinos - IHU