07 Novembro 2017
"Os computadores quânticos, ao que tudo indica, serão capazes de resolver em segundos problemas que levariam até bilhões de anos para o mais potente dos supercomputadores atuais. Os novos processadores permitirão uma revolução tecnológica e científica difícil de conceber. Mas quão perto estamos dessa fronteira?" escreve Ivan dos Santos Oliveira Júnior, doutor em física pela Universidade de Oxford (Reino Unido) e pesquisador titular do Centro Brasileiro de Pesquisas Físicas, no Rio de Janeiro, em artigo publicado por Folha de S. Paulo, 04-11-2017.
Há 70 anos, cientistas da empresa Bell Telephone inventaram o dispositivo que iria revolucionar para sempre a informática, os meios de comunicação e a forma como a informação é processada e transmitida: o transistor, talvez o componente eletrônico mais conhecido da história.
O transistor substituiu as volumosas válvulas nos então recém-criados computadores, iniciando assim o processo de miniaturização da eletrônica.
O desenvolvimento desse pequeno dispositivo rendeu o Prêmio Nobel de Física de 1956 aos americanos Walter Brattain (1902-1987), William Shockley (1910-1989) e John Bardeen (1908-1991) –este último, em parceria com os também americanos Leon Cooper (1930-) e John Schrieffer (1931-), ainda ganharia o Nobel de Física (1972) pela teoria sobre supercondutores, materiais que conduzem eletricidade sem dissipar calor.
Curiosamente, os materiais supercondutores despontam como uma das tecnologias mais promissoras em uma das áreas mais quentes na pesquisa científica: a construção dos chamados chips quânticos. Eles são o cérebro de um novo tipo de computador que, tudo indica, será capaz de resolver em segundos problemas que levariam até bilhões de anos (sim, bilhões!) para o mais potente dos supercomputadores atuais.
Essas duas contribuições fundamentais fazem de Bardeen um protagonista da história que nos leva ao desenvolvimento vertiginoso da computação e da comunicação.
O ano agora é 1985. O americano Richard Feynman (1918-1988) — também Nobel de Física (1965) — afirma num artigo que "as leis da física não impedem que o tamanho dos bits dos computadores chegue a dimensões atômicas, região em que a mecânica quântica detém o controle".
Tradução: bit é a chamada unidade mínima de informação, expressa na forma de "0" e "1" nos computadores atuais, e a mecânica quântica é a teoria –considerada a mais precisa da história– que lida com os fenômenos nas dimensões moleculares, atômicas e subatômicas.
Feynman, que na década de 1950 foi professor visitante do Centro Brasileiro de Pesquisas Físicas (CBPF), no Rio, estava muito interessado no que se passou a chamar "computação quântica". A observação no artigo de 1985 fazia referência a uma lei empírica descoberta em 1965 pelo engenheiro americano Gordon Moore (1929-).
A lei de Moore, como ficou conhecida, estabelece que, pelo mesmo custo de fabricação, a capacidade de processamento dos computadores aproximadamente dobra a cada ano e meio.
Isso ocorre pois os transistores —componentes eletrônicos que representam os bits nos computadores— têm sua dimensão reduzida à metade a cada ano e meio.
Em termos práticos, a lei de Moore explica por que os microprocessadores, ao longo das últimas quatro décadas, têm aumentado tanto sua capacidade de analisar informação. Um computador da década de 1960 tinha algo como 10 mil transistores (ou bits). Hoje, esse número bate na casa dos bilhões.
Infere-se dessa evolução acelerada a implicação mais impressionante da lei de Moore: por volta de 2020, cada bit terá a dimensão de um único átomo! O ponto de exclamação é quase irresistível: em meados da década de 1960, um bit tinha o tamanho de 10 quintilhões de átomos (isto é, 10.000.000.000.000.000.000).
Essa lei tecnológica tem outra consequência de extrema importância. A física que usamos no cotidiano e que serve para estudar objetos com tamanhos de bolas de futebol, carros e aviões deve obrigatoriamente sair de cena. Na dimensão atômica, é preciso recorrer à mecânica quântica —será este o caso do transistor formado por um único átomo. Decorrem daí os termos bit quântico e computador quântico.
Essa mudança implicará tremendo salto para a humanidade. Um bit de informação que, até este momento, era representado por um objeto contendo bilhões de átomos ligados quimicamente uns aos outros passará ao domínio nanoscópico, ou seja, atômico. E nada impede que um bit futuro tenha a representação de ordem subatômica.
Agora, nosso diário de bordo marca o ano de 2016. Um grupo de cientistas do Laboratório Nacional Lawrence em Berkeley (EUA) reporta, na revista "Science", a construção de um transistor medindo menos que 7 bilionésimos de metro (7 nanômetros) —para comparação, um fio de cabelo tem diâmetro cerca de 10 mil vezes maior.
Mas o que chama a atenção vem agora: uma das partes desse transistor é feita por um nanotubo de carbono com apenas 1 nanômetro de diâmetro —dimensão típica de espaços atômicos. Esse nanodispositivo eletrônico é construído com dissulfeto de molibdênio, em substituição aos tradicionais semicondutores da indústria de informática.
Possível conclusão: tudo indica que a lei de Moore irá cumprir sua promessa.
Voltemos alguns meses em relação à data que consta nesta edição da "Ilustríssima". A IBM anuncia que está disponibilizando "na nuvem" um protótipo de computador quântico baseado em tecnologia de supercondutores e que pode ser acessado por usuários do mundo todo.
Google e Microsoft anunciam investimentos volumosos em computação quântica. Na Europa, um megaprojeto com investimentos de 1 bilhão de euros também é anunciado nessa área.
Empresas de tecnologia quântica pipocam em toda parte.
A americana Magic-Q comercializa sistemas de criptografia quântica desde 2002, competindo com a suíça ID Quantique, que faz a mesma coisa desde 2001. Em 1999, a canadense D-Wave anunciou o primeiro modelo de computador que usa tecnologia quântica em sua forma de processamento.
A americana Ion-Q, fundada em 2015, explora tecnologia de aprisionamento de átomos para a computação quântica. A China e a Austrália são outros dois países que estão investindo pesado no setor.
Estima-se que até 2024 o mercado mundial para a computação quântica ultrapasse os US$ 10 bilhões.
Como se vê, a computação e a comunicação quânticas não são mais promessas vagas nem cálculos matemáticos abstratos feitos por físicos teóricos, mas realidades tecnológicas e comerciais que em breve irão interferir diretamente nos nossos costumes e em todos os ramos da atividade humana, da mesma forma que o fizeram os computadores que passamos a conhecer a partir de 1947.
A esta altura, cabe perguntar: o que os computadores quânticos podem fazer de diferente? Resposta: tudo.
Computadores são ferramentas essenciais para o avanço científico e tecnológico, com aplicações praticamente ilimitadas. De fato, é impossível imaginar a sociedade hoje em dia sem essa máquina maravilhosa.
Para ficar em apenas um caso, computadores controlam o espaço aéreo e o fluxo de aviões nos aeroportos, ajudam nos projetos para a construção de novas aeronaves e até na arquitetura das novas gerações de computadores que irão realizar essas mesmas tarefas com mais rapidez e eficiência. Mais: fazem previsões das condições meteorológicas ao longo das rotas e monitoram inúmeros sensores que dão segurança ao voo.
Quanto mais os computadores evoluem, mais se tornam indispensáveis. Seu telefone celular, por exemplo, provavelmente faz um computador da década de 1990 parecer uma carroça velha. A velocidade de um processador de 25 anos atrás era de 25 MHz; a de um celular fica em torno de 2 GHz, cem vezes maior.
Ainda assim, existe um tipo de tarefa que é extremamente difícil —na verdade, impossível— para os computadores com a tecnologia atual: simular a própria natureza.
Os cientistas estão muito interessados em simular o comportamento de sistemas naturais, como uma reação química de uma molécula em um fármaco ou as possíveis mudanças no movimento das correntes marítimas e atmosféricas causadas pelo aquecimento global.
Nesse contexto, "simular" significa reproduzir no computador exatamente o comportamento natural do fenômeno, com o maior número possível de detalhes. Isso é importante porque permite aos cientistas fazer previsões acuradas, projetar novos medicamentos etc.
O problema é que, se todos os detalhes forem levados em conta, a simulação se torna tão complexa que ultrapassa a capacidade de processamento e armazenamento dos computadores existentes —mesmo a dos supercomputadores.
A saída usada pelos cientistas e engenheiros é simplificar o problema ou, como se diz no jargão da ciência, fazer aproximações. E, com aproximações, parte importante da informação se perde.
Um computador quântico, contudo, é capaz de fazer simulações de sistemas naturais sem aproximações. Feynman (de novo) considerava que a própria natureza é um computador quântico simulando os fenômenos que observamos –para dar toques filosóficos à discussão, inclusive nós, seres humanos.
Em geral, fenômenos quânticos são associados apenas ao mundo microscópico, de átomos, moléculas e partículas elementares. Isso é um erro. Eles estão por toda parte; a própria estrutura da matéria, como a vemos e sentimos no cotidiano, é resultado direto das leis que regem o mundo quântico.
Sem usar a física quântica, é impossível explicar por que o cobre conduz eletricidade, e o diamante não. Sem lançar mão de suas leis, é impossível explicar a estrutura das ligações químicas que dão origem às moléculas –e, em última análise, a tudo que existe no mundo físico.
Porém, para fins de computação e comunicação, é preciso controlar alguns fenômenos quânticos que mais parecem truques de mágica — e aqui as coisas começam a ficar ainda mais interessantes (e estranhas).
De onde vem a mágica? O conceito mais importante para entendermos como os computadores quânticos funcionam é o de correlação, muito usado por estatísticos em problemas envolvendo probabilidades.
Quando dois objetos estão correlacionados, a observação de uma propriedade de um deles fornece informação sobre uma propriedade do outro —pouco importa a distância entre ambos.
Suponha, por exemplo, que tenhamos uma bola de bilhar branca em uma caixa opaca fechada e uma bola preta em outra caixa idêntica, também fechada. Não se sabe em qual caixa está a bola branca ou a preta. Uma das caixas é entregue ao sujeito A, e a outra, ao sujeito B.
Agora, eles se afastam um do outro, de tal modo que não haja contato entre eles. O sujeito A recebe a instrução de abrir sua caixa e verificar a cor da bola. Antes dessa operação, ele só sabe que há 50% de chance de a bola ser preta e o mesmo percentual de ela ser branca. Ele abre a caixa e verifica que a bola é branca.
No mesmo momento, ele ganha informação sobre a bola que está com B, que, com sua caixa ainda fechada, não sabe a cor de sua bola. Não há interação entre A e B, mas a correlação entre as cores das bolas permitiu que A obtivesse informação sobre a bola de B.
Façamos uma pequena variação desse experimento. Agora, cada caixa tem duas bolas, uma branca e uma preta. Novamente, A se afasta de B e recebe a instrução de, sem olhar para dentro da caixa, pegar uma das bolas.
Como antes, ele tem 50% de chance de pegar a preta e 50% de chance de pegar a branca. Ele pega uma delas e verifica que é preta. Dessa vez, porém, ele não pode concluir nada sobre que bola B pegará em sua caixa. Dizemos que a correlação estatística que existia antes se perdeu.
Se as bolas fossem objetos quânticos (como átomos), seria possível criar uma situação especial na qual todas as vezes em que A retirasse o "átomo preto" de sua caixa, B retiraria o "átomo branco", não importando quantos átomos estivessem nas caixas nem a distância entre elas.
É como se o resultado da ação de A definisse o resultado daquela a ser feita por B, que poderia estar a milhares de quilômetros de distância. Esse tipo de correlação estatística só existe em sistemas quânticos e se chama emaranhamento.
Não raro, o emaranhamento é classificado como o fenômeno mais estranho da natureza. Afinal, como um objeto que está aqui pode interferir instantaneamente no estado de outro objeto localizado a, digamos, bilhões de quilômetros? Não surpreende que o físico de origem alemã Albert Einstein (1879-1955) tenha apelidado esse fenômeno de fantasmagórico.
Em uma interpretação apressada (e errônea), diz-se que o emaranhamento viola o principal resultado da teoria da relatividade: informação não pode ser transmitida com velocidade maior do que a da luz no vácuo (300 mil km/s).
No emaranhamento, contudo, não há transferência de informação clássica, como ocorre com os dados da internet, por exemplo. O que se transmite é o que os físicos denominam informação quântica, algo impalpável, que não carrega matéria nem energia.
Apesar de sua esquisitice, o emaranhamento é o ingrediente mais importante para a computação e a comunicação quânticas. E já foi demonstrado inúmeras vezes em laboratórios pelo mundo todo, inclusive no Brasil.
Neste ano, os chineses fizeram experimentos que demonstram as correlações quânticas (ou seja, o emaranhamento) entre fótons (partículas de luz) separados por 1.200 quilômetros de altura usando um satélite. É a esquisitice do mundo quântico posta em prática.
O emaranhamento é o fenômeno responsável pelo processamento paralelo colossal de um computador quântico. Enquanto o bit (unidade de informação clássica) pode ter os valores "0" ou "1", que são mutuamente excludentes, o q-bit processa todas as combinações possíveis de "0" e "1" simultaneamente. É como dizer que uma lâmpada pode estar acesa e apagada ao mesmo tempo.
Não se trata de mero aumento de velocidade em comparação com dispositivos usuais, mas de um novo paradigma de computação.
Esse novo paradigma, além de permitir que problemas complexos sejam resolvidos em segundos, é o responsável pelo fenômeno conhecido como teleporte, no qual a informação quântica desaparece de um lugar e reaparece instantaneamente em outro, sem atravessar o espaço que os separa.
Do emaranhamento também vem a capacidade de estabelecer comunicações absolutamente seguras, à prova de hackers, pois qualquer tentativa de invadir a rede interferiria nesse fenômeno e seria detectada de forma instantânea. O atual sistema de criptografia, por outro lado, será destroçado por um computador quântico de mil q-bits, dada sua enorme capacidade de processamento.
Há ainda um rol de aplicações que estão apenas começando a ser exploradas, como a dos chamados sensores quânticos, capazes de realizar medidas de quantidades físicas com precisão inalcançável para os melhores métodos clássicos.
O funcionamento pleno de um computador quântico também irá revelar soluções até aqui desconhecidas pelos cientistas de problemas de matemática, física, química, biologia e engenharia, com potencial de produzir uma revolução científica e tecnológica ainda maior do que aquela que ocorreu no início do século passado, com a descoberta da teoria da relatividade e da mecânica quântica.
Saltemos para 2027. No mundo desenvolvido, computadores quânticos são usados para encontrar poços de petróleo, projetar fármacos, criar materiais, resolver problemas muito complexos de engenharia e matemática, manter a internet à prova de hackers, desenvolver a defesa nacional etc.
O Brasil, porém, mais uma vez ficou de fora de um novo cenário científico-tecnológico (e geopolítico): não tem uma marca de computador quântico, e os poucos que existem no país foram comprados dos EUA, da China, da Inglaterra ou da Austrália a preços exorbitantes. Continuamos dependentes da tecnologia produzida nas nações que compreenderam que ciência deve ser projeto de Estado.
Mantidos os famigerados contingenciamentos para a ciência e a tecnologia no Brasil, naquele 2027, nossos cientistas —trabalhando nos sucateados institutos de pesquisa que ainda restaram— certamente estão implorando por verbas para pagar a conta da energia elétrica usada para manter ligados seus velhos computadores.
Mais uma revolução tecnológica terá passado longe daqui.
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
Computador quântico já está chegando e vai levar tecnologia a uma nova era - Instituto Humanitas Unisinos - IHU