Skip to main content
Notícias

Computação quântica prática é inevitável – e está cada vez mais perto

By 30 de janeiro de 2025No Comments

computação quantica, segurança, IA

A computação quântica já não é apenas tema de ficção científica ou de discussões acadêmicas restritas a laboratórios de elite. Para um número crescente de pesquisadores, investidores e empresas, trata-se de uma tecnologia prestes a atingir relevância prática nos próximos anos, trazendo possibilidades de inovação drásticas em áreas que vão desde o design de novos fármacos até a criação de materiais nunca imaginados.

Conforme abordado pelo MIT Technology Review, essa visão contraria, por exemplo, a declaração recente do CEO da Nvidia, Jensen Huang, que sinalizou que um computador quântico funcional em larga escala ainda estaria a quinze ou trinta anos de distância — e que inevitavelmente usaria GPUs da Nvidia para lidar com correções de erro. Entretanto, há especialistas que discordam dessa avaliação, argumentando que o progresso real está avançando a passos mais rápidos do que muitos acreditam.

Em janeiro de 2025, Huang surpreendeu o mercado financeiro ao alegar que a computação quântica prática ainda demoraria décadas para se concretizar. A afirmação soou, para alguns, como uma análise conservadora (ou até equivocada) em vista das recentes conquistas na área.

Basta lembrar o ritmo acelerado de desenvolvimento observado em laboratórios de empresas como Google, IBM, e startups promissoras, a exemplo da PsiQuantum e Phasecraft. Para os otimistas, o progresso, tanto no hardware quanto no desenvolvimento de algoritmos quânticos, tem superado previsões anteriores, trazendo à tona resultados que apontam para a possibilidade concreta de, num futuro não muito distante, resolver problemas antes considerados intransponíveis por computação clássica ou pela combinação de IA e supercomputadores.

Leia também: NTT Data anuncia programa para formar 200 mil funcionários em IA generativa

Corrida pela computação quântica prática acelera

Uma das evidências citadas pelo MIT Technology Review é a demonstração do Google com seu dispositivo Willow. Mesmo não sendo ainda um equipamento capaz de gerar valor comercial imediato, o Willow teria conseguido reduzir erros de forma exponencial conforme o número de bits quânticos (qubits) aumentou, além de ter realizado, em apenas alguns minutos, uma tarefa que levaria trilhões de anos em supercomputadores de ponta.

Embora ainda seja cedo para transformá-lo em uma ferramenta de mercado, a experiência reforça a ideia de “supremacia quântica” — quando um dispositivo quântico executa uma operação impraticável para máquinas clássicas em um intervalo de tempo factível. Outro ponto fundamental é o avanço rumo à chamada tolerância a falhas: em termos simples, seria a capacidade de corrigir os erros inevitáveis que surgem quando se operam qubits, garantindo maior estabilidade e confiabilidade dos resultados.

Para analistas da área, o ritmo de inovação em algoritmos quânticos avança ainda mais velozmente do que o próprio hardware. Em colaboração com a farmacêutica Boehringer Ingelheim, a startup norte-americana PsiQuantum conseguiu, por exemplo, aprimorar algoritmos relacionados à modelagem de moléculas complexas em um fator superior a 200 vezes. Essa melhoria significativa destaca a possibilidade de realizar simulações de fármacos e catalisadores industriais com uma precisão jamais vista, abrindo caminho para o desenvolvimento de terapias mais eficientes e processos químicos mais limpos.

Outra empresa que aposta nisso é a Phasecraft, do Reino Unido, cuja especialidade é a aplicação de algoritmos quânticos na simulação de sólidos e cristais. A companhia demonstrou um ganho de performance considerável em estudos envolvendo materiais cristalinos, além de ter publicado uma versão “quanticamente otimizada” de algoritmos muito utilizados na ciência de materiais — em alguns casos, tangenciando o ponto em que começam a superar implementações clássicas em máquinas já existentes.

IA, limitações de DFT e o papel dos computadores quânticos

Esses avanços são uma ótima notícia, especialmente porque a inteligência artificial (IA), embora revolucionária, não consegue dar conta de certos problemas quânticos complexos. A IA depende, em última instância, de dados gerados por abordagens clássicas — por exemplo, a teoria do funcional da densidade (DFT, na sigla em inglês) na química computacional.

Essa teoria é muito usada para modelar o comportamento de elétrons em átomos, moléculas e sólidos, mas não abrange adequadamente sistemas onde as correlações quânticas são mais intensas. O resultado é que, quando se depara com fenômenos como supercondutividade ou estruturas moleculares ainda pouco compreendidas, o método simplesmente falha em capturar a física fundamental subjacente. Como consequência, mesmo algoritmos de IA que se apoiam em modelos baseados em DFT herdam as limitações desses métodos.

Exemplo disso foi a grande comoção ocorrida em meados de 2023 em torno de um suposto supercondutor em temperatura ambiente, o chamado LK-99. Pesquisadores de diversos lugares tentaram, sem muito sucesso, usar ferramentas de simulação para comprovar ou desmentir a alegação de supercondutividade.

Diante da falta de respostas confiáveis, muitos cientistas resolveram retornar aos métodos empíricos, produzindo e testando o material em laboratório com pilão e almofariz. A ilusão de um supercondutor à temperatura ambiente logo se dissipou — a despeito de algumas propriedades interessantes do LK-99. Esse episódio deixou claro, para muitos, o quanto ainda somos “cegos” em relação à compreensão de inúmeros fenômenos quânticos que poderiam ser revolucionários para setores de energia e transporte, caso fossem realmente dominados.

Outro exemplo de fracasso parcial da IA em produzir saltos quânticos é o GNoME (Graph Networks for Materials Exploration), do DeepMind, que mapeia materiais estáveis em grande escala, com resultados promissores na descoberta de milhares de substâncias potenciais.

Contudo, por depender de DFT e de outras ferramentas que não abarcam totalmente a natureza quântica, o GNoME não consegue superar limites fundamentais da química computacional clássica. Em outras palavras, a tecnologia de IA, poderosa como é, ainda precisa de dados muito mais precisos sobre os fenômenos quânticos para turbinar sua capacidade de prever, projetar e descobrir novas substâncias.

Para muitos pesquisadores, a resposta definitiva para esse dilema está nos computadores quânticos tolerantes a falhas, capazes de rodar simulações fiéis à mecânica quântica. Peter Barrett, investidor em diversas iniciativas de computação quântica, citado pelo MIT Tech Review, reforça essa posição ao dizer que “as conquistas científicas que celebramos hoje são, em muitos sentidos, fruto de tentativas e erros”. Em sua visão, ainda estamos bastante limitados no âmbito da química, da biologia molecular e da ciência de materiais, pois muitos processos reais envolvem interações quânticas que não são captadas de maneira plena pelos métodos clássicos. A computação quântica, por outro lado, pode nos levar a uma era de “design” de novas substâncias, abandonando aos poucos a abordagem de “descoberta ao acaso” que tantas vezes recorre à experimentação empírica e lenta.

Futuro impulsionado pela tecnologia quântica

A PsiQuantum, por exemplo, planeja colocar em operação, até o fim desta década, dois computadores quânticos de grande porte — cada um sendo 10 mil vezes maior que o Google Willow, segundo o MIT Tech Review. Com esse salto, a empresa ambiciona consolidar uma plataforma apta a investigar questões complexas sobre materiais, fármacos e fenômenos quânticos da natureza. Um destaque curioso é que, diferente do que prevê Huang, esses computadores não devem empregar GPUs da Nvidia para correção de erros; eles utilizarão hardware dedicado e projetado especificamente para lidar com fotônica em larga escala, em velocidades incompatíveis com as tecnologias de GPU tradicionais.

Apesar de promissoras, essas máquinas exigem grande investimento em pesquisa, engenharia e infraestrutura. Uma máquina quântica com milhões de qubits não é trivial de construir e manter: demanda resfriamento criogênico extremo, detecção de fótons ultrassensível, circuitos de silício fotônico de alta performance e sistemas robustos para correção de erros em tempo real. Empresas como a PsiQuantum e laboratórios como o Google e a IBM vem injetando esforços significativos — e recursos financeiros bilionários — para transformar a ciência fundamental em equipamentos reais. O consenso é que o problema não é mais “se” a computação quântica vai decolar, mas “quando” e “em que escala”.

A importância desses desenvolvimentos vai muito além de satisfazer a curiosidade científica. A incapacidade atual de entendermos plenamente a química e a física quânticas faz com que, em muitos casos, procuremos soluções em processos aleatórios, como buscar compostos em cascas de árvore na Amazônia para produzir novos medicamentos, sem de fato compreender todo o potencial ou os mecanismos de ação envolvidos.

Em suma, controlamos apenas uma fração diminuta do que a natureza tem a oferecer. Se materializarmos computadores quânticos suficientemente grandes para simular e projetar moléculas e estruturas cristalinas de forma precisa, poderemos inaugurar um capítulo inédito na história da ciência — e isso inclui o desenvolvimento de supercondutores que não exigem resfriamento criogênico, catalisadores revolucionários e medicamentos mais eficazes.

Para ilustrar o quanto ainda é possível avançar, Barrett faz um exercício imaginativo: pense em um mundo sem metal, onde as civilizações teriam se desenvolvido apenas com ferramentas de pedra e madeira. Seria possível ter agricultura, imprensa, até mesmo literatura sofisticada. Mas jamais teríamos motores elétricos, circuitos ou tecnologias de inteligência artificial. Algo análogo pode estar acontecendo em relação à computação quântica: talvez estejamos vivendo em uma realidade “pré-quântica”, onde nem sequer conseguimos vislumbrar tudo o que podemos criar e transformar quando tivermos domínio pleno das leis quânticas da matéria.

É claro que muitos desafios técnicos continuam no caminho. Mas, para Barrett e outros especialistas, a construção de máquinas quânticas robustas já saiu do estágio de viabilidade científica e ingressou na fase de engenharia e construção em larga escala. A cada passo, novos gargalos se tornam aparentes, mas também surgem soluções para superá-los, desde a evolução de sistemas de erro para algoritmos mais refinados até o aperfeiçoamento de componentes fotônicos e criogênicos.

Conforme ressaltou o MIT Technology Review, ainda é difícil prever todos os impactos que esses computadores trarão. Mas é plausível supor que, dentro de alguns anos, já poderemos projetar materiais com propriedades extraordinárias — coisas que hoje parecem impossíveis: supercondutividade em temperatura ambiente, baterias ultrapotentes, novos fármacos para doenças crônicas, entre outras inovações.

O surgimento de sistemas quânticos de grande porte representa, assim, uma expansão significativa de nossos limites técnicos e científicos, algo capaz de reconfigurar indústrias inteiras e lançar um ciclo de descobertas que, hoje, ainda soa futurista.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!