27 Agosto 2019
Em termos econômicos, uma “bolha” define o processo pelo qual um produto ou serviço gera, geralmente devido a especulações, um interesse anormal ou descontrolado entre investidores, compradores e usuários - e, consequentemente, sobe seu preço e seu uso - por um período prolongado de tempo. Vários indícios apontam que no setor de tecnologia está ocorrendo um fenômeno desse tipo, por causa da inteligência artificial.
A reportagem é de Juan Manuel García, publicada por La Vanguardia, 26-08-2019. A tradução é do Cepat.
Reportagens publicadas nos últimos dias pela imprensa americana abonam essa hipótese. O Wall Streel Journal revelou, na semana passada, o exemplo mais recente de um rastro de casos com um denominador comum: empresas que "vendem" sistemas de inteligência artificial que, na verdade, são serviços desenvolvidos em sua maior parte por pessoas.
O WSJ explica em uma reportagem que a startup indiana Engineer.ai, uma empresa que oferece uma plataforma para desenvolver aplicativos para dispositivos móveis em muito pouco tempo, graças à inteligência artificial, emprega, na verdade, um exército de programadores na Índia que fazem o trabalho atribuído ao software automatizado. O jornal denuncia que esta empresa obteve mais de 30 milhões de financiamentos nos últimos meses, enganando os investidores sobre o tipo de tecnologia que oferece.
Não é uma prática incomum. Muitas outras empresas tentaram "colar" plataformas de inteligência artificial que na verdade eram produtos que funcionavam quase exclusivamente graças a mãos e mentes humanas. Uma reportagem muito mais extensa e documentada, publicada na semana passada pelo The New York Times, lança luz sobre os métodos usados por grandes empresas de tecnologia para treinar seus sistemas de inteligência artificial.
O artigo explica que em países como a Índia, muitas pessoas trabalham para empresas subcontratadas por gigantes da Internet. Seu trabalho consiste em sentar-se na frente de uma tela de computador por pelo menos oito horas para corrigir, supervisionar e aperfeiçoar os sistemas de aprendizagem automática (machine learning) que estas grandes empresas desenvolvem.
O perfil e as atribuições desses trabalhadores, que ocupam escritórios lotados na forma de 'call-centers' e recebem salários precários - embora suficientes para viver com folga nos países em desenvolvimento - são muito variados: alguns se dedicam durante toda sua jornada de trabalho a revisar vídeos de intestinos humanos, com a finalidade de identificar pólipos, inflamações, coágulos sanguíneos ou qualquer outro sinal que indique uma possível doença no cólon.
Outros escutam durante todo o dia áudios de tosse humana, para determinar qual delas alerta para uma possível doença respiratória. Também há especialistas na identificação de pedestres e sinais de trânsito em imagens aéreas de estradas. Os menos afortunados são forçados a executar tarefas igualmente tediosas, mas muito menos agradáveis, como monitorar vídeos contendo imagens pornográficas ou violência explícita.
Todo esse trabalho de rotulagem de dados serve para treinar os sistemas de aprendizagem automáticos baseados em inteligência artificial. O objetivo é que, no futuro - o que parece estar um pouco mais além do que algumas empresas de tecnologia preveem -, os sistemas automatizados de assistência médica e os carros sem motorista estejam o mais próximo possível da perfeição, além de impedir que imagens nocivas cheguem às redes sociais de uso massivo.
De qualquer forma, a realidade é que hoje em dia a supervisão humana continua sendo fundamental para que os sistemas de inteligência artificial sejam eficazes, apesar de muitas empresas afirmarem já ter esse tipo de tecnologia em plena capacidade.
Essa "superestimação" de seus recursos é uma prática cada vez mais habitual, não apenas nos Estados Unidos, mas também na Europa. De acordo com um estudo publicado pela empresa de capital de risco MMS, 40% das startups europeias que são classificadas como empresas de Inteligência Artificial, de fato, não possuem nenhuma tecnologia desse tipo em seus negócios.
A empresa realizou um estudo com 2.830 empresas classificadas como empresas de IA, provenientes de 13 países da União Europeia mais ativos nessa tecnologia (incluindo a Espanha), onde avaliou a atividade, o enfoque e o financiamento de cada empresa.
No relatório (El Estado de la IA: Divergencia 2019), conclui-se que apenas em 1.580 startups (60%) havia evidências (de seu material, web, documentos e produtos) que indicavam a existência de tecnologia de inteligência artificial. Isto significa que o restante dos casos não eram empresas de IA, uma vez que nenhuma prova ou etiqueta foram encontradas para verificar o uso desse tipo de tecnologia.
David Kelnar, chefe de pesquisa da MMC, disse à Forbes que essas startups, na realidade, não se promoviam como empresas de IA, mas foram classificadas dessa maneira por empresas terceiras de análise de web. Mas, independente de que sejam as próprias empresas ou outros atores do mercado que tomam a iniciativa de se promover como empresas de IA, a realidade mostra que divulgar que dispõem dessa tecnologia influencia seu valor público. Segundo a Forbes, as startups rotuladas como empresas de IA atraem de 15 a 50% a mais de financiamento que outras empresas de tecnologia.
O fato de não serem apenas as máquinas, mas também pessoas que estão por trás de sistemas supostamente “automatizados”, apresenta problemas adicionais à fraude para o usuário (e o investidor), quando se esconde essas informações. O mais óbvio tem a ver com a perda de privacidade, como demonstrado pelo escândalo descoberto neste mesmo verão, quando foi revelado que as pessoas a serviço dos principais gigantes tecnológicos espionavam as conversas que seus clientes mantinham por meio de seus assistentes virtuais.
No início de julho, um canal de televisão belga revelou que as pessoas contratadas pelo Google estavam ouvindo algumas das interações que os usuários mantêm com o assistente virtual da empresa. Logo depois, Amazon, Apple e Facebook reconheceram práticas semelhantes. A última grande empresa a se unir a essas revelações foi a Microsoft, que há alguns dias também admitiu que "escuta" gravações de algumas das conversas que os usuários mantêm com seu assistente pessoal Cortana, com o serviço de tradução do Skype e até mesmo através de seu console de videogame Xbox One.
A lógica por trás dessa prática é que, apesar dos avanços na inteligência artificial (a tecnologia em que se baseiam ambos os serviços), ainda é preciso de vez em quando da intervenção humana para encontrar possíveis falhas e contribuir para a melhoria da qualidade. A inteligência artificial se baseia em sistemas de aprendizagem automáticos, em que a máquina “aprende” a processar informações e “pensa” como um ser humano, mas, para isso, precisa de exemplos que sirvam como uma amostra a partir da qual possa desenvolver padrões que permitam criar um modelo lógico.
De fato, se um erro cometido por um sistema de inteligência artificial não for detectado por um longo tempo, a aprendizagem automática poderá fazer com que a máquina assuma esse erro como algo correto e sobre o qual pode basear decisões futuras, o que pioraria ainda mais seu funcionamento.
São práticas que vem sendo realizadas desde o mesmo momento em que esses serviços foram colocados em funcionamento e que são conhecidas dentro do setor, mas que em muitos casos não foram comunicadas de forma precisa e transparente ao público, o que gerou um certo ruído dos meios de comunicação, após as publicações mencionadas.
“A inteligência artificial ainda não está no nível em que seja possível interpretar a conversa humana”, o que significa que as empresas devem confiar no monitoramento para ajudar a capacitar os sistemas", explica Jennifer King, diretora de privacidade do consumidor do Centro de Internet e Sociedade, da Faculdade de Direito de Stanford. “Mas, o grande problema, na minha visão, é a não divulgação. Os usuários não sabem claramente o que está acontecendo'', explica a especialista.
As empresas reagiram de forma distinta. Enquanto o Google e a Apple anunciaram que suspenderão o programa, até revisá-lo, a Microsoft optou por continuar, mas deixando claro na política de uso quais ações estão sendo executadas.
“Para construir, treinar e melhorar a precisão de nossos métodos automatizados de processamento (incluindo inteligência artificial), revisamos manualmente algumas das previsões e inferências produzidas por nossos métodos”, admite a página da Microsoft.
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
A inteligência continua sendo mais humana do que artificial - Instituto Humanitas Unisinos - IHU