
A computação quântica ainda é frequentemente tratada como promessa distante, um território experimental, restrito a laboratórios e projeções de longo prazo. Mas, na visão de Bill Wisotsky, principal arquiteto de soluções para Computação Quântica do SAS, o erro das empresas começa justamente aí.
“Não é mais uma questão de ‘se’. É uma questão de quando”, afirma o executivo, lembrando que a mesma máxima foi aplicada à inteligência artificial (IA). “E, quando isso acontecer, quem não tiver começado agora estará tão atrás que será muito difícil alcançar.”
A provocação revela uma mudança no mercado. A computação quântica já entrou na fase em que o risco deixou de ser apenas tecnológico e passou a ser organizacional.
Ao contrário do que ocorreu com a IA generativa, cuja barreira de entrada caiu rapidamente, a computação quântica, revela, ainda exige algo mais profundo das organizações: uma mudança de paradigma. “É uma forma completamente diferente de pensar”, diz Wisotsky, complementando que o racional não é abordar problemas a partir de uma perspectiva de ciência de dados. “É preciso pensar a partir da física”, contou em entrevista ao IT Forum durante o SAS Innovate 2026*, nos Estados Unidos.
A dificuldade, segundo ele, não está apenas em acessar a tecnologia, mas em reformular o próprio modelo mental com que problemas são estruturados. De acordo com o especialista, as primeiras tentativas da indústria falharam justamente por tentar “traduzir” problemas clássicos para o mundo quântico. “Quando paramos de tentar fazer essa tradução e começamos a pensar de forma diferente, foi quando começamos a ver resultados”, observa.
Computação quântica: do hype à utilidade
Wisotsky evita o termo “vantagem quântica”, ainda raro na prática, e prefere uma definição mais pragmática: “utilidade quântica”. “São casos em que a computação quântica já funciona. Talvez não de forma impossível no clássico, mas com algum ganho, seja em tempo, seja em capacidade de modelagem.”
E esses casos começam a aparecer em três frentes principais, revela. O primeiro é a otimização (a mais imediata) que inclui setores como logística, supply chain, roteirização e portfólios. O segundo é o machine learning quântico, especialmente em modelos mais expressivos com menos dados. Por fim, a simulação em áreas como química, materiais e desenvolvimento farmacêutico. “Qualquer problema que possa ser formulado como otimização é um candidato natural para computação quântica”, explica.
Para traduzir o que muda com a computação quântica, Wisotsky recorre à analogia da montanha. “Resolver um problema clássico é como caminhar por uma montanha procurando um lago. Pode-se levar a vida inteira”, diz. “Na computação quântica, é como estar em um helicóptero e enxergar todo o terreno ao mesmo tempo”, compara.
Essa capacidade vem de conceitos como superposição e entrelaçamento, que ampliam o espaço de soluções possíveis e permitem explorar relações que hoje simplesmente não são acessíveis. O resultado não é apenas mais velocidade. É um novo tipo de modelagem. “Estamos começando a ver modelos quânticos que atingem os mesmos resultados com muito menos dados”, indica.
Vem aí o “Q-Day”
Se as oportunidades são claras com a computação quântica, os riscos também começam a ganhar contornos mais concretos, especialmente no campo da segurança. O principal deles tem nome: Q-Day. “Este é o momento em que computadores quânticos serão capazes de quebrar a criptografia RSA [um dos métodos de criptografia mais usados no mundo para proteger dados, especialmente na internet]”, explica.
Esse cenário, antes estimado em décadas, está se aproximando mais rápido do que o esperado, impulsionado por avanços recentes em escala de qubits. E há um efeito colateral já em curso. “Existe o fenômeno de ‘colher agora, descriptografar depois’. Dados estão sendo roubados hoje, armazenados, e poderão ser descriptografados no futuro.” Ou seja: o risco não é apenas futuro. Ele já começou.
Para evitar questões de segurança, o tema regulamentação vem à tona. Wisotsky indica que o debate ainda é incipiente, mas inevitável e tende a seguir o mesmo caminho já visto na IA. Hoje, a principal preocupação gira em torno do uso de algoritmos como o de Shor, capazes de quebrar padrões atuais de criptografia.
Em ambientes controlados, como o acesso via nuvem, já seria possível identificar esse tipo de uso e até impedir sua execução. Mas esse controle não se sustenta em cenários em que governos ou organizações tenham acesso direto a computadores quânticos. “Como aconteceu com a IA, a governança deve vir depois que entendermos melhor como a tecnologia está sendo usada”, sugere.
Mercado fragmentado
Diferentemente da IA, que rapidamente concentrou poder em poucas empresas fornecedoras, o ecossistema quântico ainda é altamente fragmentado, observa o especialista. “Existem várias modalidades, íons aprisionados, átomos neutros, fótons, e cada uma funciona melhor para certos problemas”, explica Wisotsky.
Esse cenário lembra o início da computação pessoal nos anos 1970, com múltiplas abordagens concorrendo até que algumas se consolidem. “Veremos fusões, aquisições e o desaparecimento de algumas tecnologias”, afirma.
Ao mesmo tempo, o mercado ao redor do quantum já movimenta cifras relevantes. Segundo ele, estimativas da McKinsey & Company apontam para trilhões de dólares em valor econômico até 2035, considerando todo o ecossistema, não apenas os computadores em si.
Nesse contexto, o posicionamento do SAS não é competir com fabricantes de hardware como IBM ou Google, mas criar uma camada de abstração. Estas empresas, inclusive, são parceiras do SAS nessa jornada.
A proposta do SAS Quantum Lab é permitir que empresas desenvolvam algoritmos sem precisar lidar com diferentes linguagens e SDKs de cada fornecedor. “Criamos uma arquitetura multi-vendor em um único ambiente”, explica Wisotsky. Na prática, isso reduz a complexidade de entrada e acelera o aprendizado, um fator crítico em um mercado em que talento será escasso.
Efeito do tempo
Ao contrário de outras ondas tecnológicas, a computação quântica não terá um “momento iPhone”. “Não será uma data. Será um processo”, aposta Wisotsky.
Ainda assim, há um consenso de mercado. Entre 2030 e 2035, a chegada de computadores quânticos tolerantes a falhas deve marcar uma virada relevante. Mas há um detalhe importante: o mercado não começa sua efervescência nesse momento. Ele já começou. “Já existem projetos reais com clientes. Já existe uso comercial”, afirma.
E, como em toda mudança estrutural, o risco maior não está na adoção tardia da tecnologia, mas na demora em entender o que ela exige. “Empresas estão começando agora para construir times, expertise e propriedade intelectual”, finaliza Wisotsky.
*A jornalista viajou a convite do SAS
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

