Últimos avanços em computação quântica 2024: O que realmente mudou e por que é importante

Existe uma versão da história da computação quântica que se repete todos os anos: um comunicado de imprensa empolgado, um número tão grande que quebra a compreensão, e depois silêncio. 2024 pareceu diferente para os investigadores que realmente acompanham este campo de perto. Não por causa de um anúncio, mas por causa de três momentos de avanço separados que aconteceram em meses de distância — cada um de uma empresa diferente, usando uma abordagem fundamentalmente distinta para o mesmo problema. Quando isso acontece simultaneamente em várias arquiteturas de hardware, geralmente é um sinal de que o campo está a avançar, em vez de estar a girar em círculos.

Aqui está o que realmente mudou em 2024, por que cada desenvolvimento importa, e quais são as advertências honestas.

Google Willow: O Chip que Mudou a Conversa sobre Correção de Erros

A maior novidade do ano chegou em 9 de dezembro de 2024. A equipa de IA quântica do Google revelou o Willow — um processador supercondutor de 105 qubits construído na sua instalação de fabricação dedicada na UC Santa Barbara — e o que demonstrou não foi apenas um chip mais rápido. Foi uma prova de algo que o campo tentava estabelecer há quase três décadas.

A conquista principal: à medida que o Google adicionava mais qubits ao Willow, a taxa de erro diminuía em vez de aumentar. Parece simples. Não é. Durante anos, a frustração central da computação quântica foi que mais qubits significavam mais ruído, mais instabilidade, mais erros a propagar-se pelos cálculos. Podias construir um sistema maior, mas ele seria menos fiável. O Willow quebrou essa relação. Usando a sua arquitetura de correção de erros, o chip demonstrou o que se chama operação “abaixo do limiar” — o ponto em que a escalabilidade realmente ajuda, em vez de prejudicar.

O benchmark que o Google realizou juntamente com este anúncio tornou-se instantaneamente famoso: o Willow completou um cálculo de amostragem de circuitos aleatórios em menos de cinco minutos, que levaria ao dia de hoje o supercomputador clássico mais rápido 10 septilhões de anos — ou seja, 10²⁵ anos, aproximadamente um milhão de vezes a idade atual do universo. Como disse Hartmut Neven, que fundou o Google Quantum AI em 2012: “Estamos além do ponto de equilíbrio.” Os detalhes técnicos completos foram publicados na revista peer-reviewed Nature, o que é importante: afirmações anteriores de supremacia quântica receberam críticas legítimas, e ter a metodologia disponível para escrutínio faz toda a diferença.

O anúncio oficial e a documentação técnica estão disponíveis diretamente no blog do Google Quantum AI.

A advertência honesta: o teste de benchmark do Willow ainda é limitado. A amostragem de circuitos aleatórios prova que certos cálculos são intratáveis classicamente para este chip — não significa que o Willow possa atualmente executar aplicações de descoberta de medicamentos ou modelagem climática, que são frequentemente mencionadas sempre que se fala de computação quântica. O valor do Willow é arquitetural: mostra que a computação quântica de correção de erros em grande escala já não é uma barreira teórica. É um caminho de engenharia demonstrado.

Microsoft e Quantinuum: O Marco do Qubit Lógico

Oito meses antes do anúncio do Willow, a Microsoft e a Quantinuum publicaram um resultado em abril de 2024 que recebeu menos atenção geral, mas talvez mais atenção dos investigadores. Demonstraram qubits lógicos com taxas de erro 800 vezes inferiores às dos qubits físicos correspondentes — usando o que a Microsoft chamou de “virtualização de qubits”.

A distinção entre qubits físicos e lógicos é a verdadeira linha divisória na computação quântica. Os qubits físicos são as unidades de hardware — são ruidosos, sensíveis à temperatura, vibração, interferência eletromagnética e ao próprio tempo. Os qubits lógicos são construídos combinando múltiplos qubits físicos numa estrutura que codifica a informação de forma redundante, para que erros possam ser detectados e corrigidos sem destruir o cálculo. O desafio sempre foi que os qubits lógicos requerem tantos qubits físicos para serem construídos que o overhead tornava tudo impraticável. Uma redução de 800x na taxa de erro significa que os qubits lógicos começam a parecer realistas, em vez de teóricos.

A Microsoft avançou ainda mais em novembro de 2024. Trabalhando com a Atom Computing, criaram e entrelaçaram com sucesso 24 qubits lógicos usando átomos de itérbio neutros ultracoolados — estabelecendo um novo recorde e fazendo-o com fidelidades de portões notáveis: 99,963% para operações de um qubit e 99,56% para portas de entrelaçamento de dois qubits. A abordagem de átomos neutros usa átomos resfriados a laser mantidos no lugar por pinças ópticas, uma arquitetura de hardware completamente diferente dos transmons supercondutores do Google. Isto importa porque significa que múltiplos caminhos viáveis para a computação quântica tolerante a falhas estão a avançar simultaneamente, em vez de o campo apostar tudo numa única abordagem.

Depois, em dezembro de 2024, a Quantinuum foi ainda mais longe: entrelaçou 50 qubits lógicos — outro recorde, e uma demonstração de que a era do qubit lógico não é uma meta futura, mas uma realidade ativa.

IBM Heron R2: A Inovação na Disciplina de Engenharia

Os avanços do Google com o Willow e da Microsoft com os qubits lógicos receberam mais destaque em 2024. A contribuição da IBM foi mais discreta, mas igualmente significativa para quem pensa na origem prática da computação quântica.

Em novembro de 2024, a IBM revelou o processador Heron R2 — 156 qubits, a segunda geração da arquitetura Heron, construída com uma topologia de rede de hexágonos pesados. O número de qubits principal importa menos do que o que aconteceu com o desempenho. As taxas de erro de portas de 2 qubits da IBM caíram para 8×10⁻⁴. O sistema agora consegue executar circuitos quânticos com até 5.000 operações de portas de 2 qubits. E cargas de trabalho que anteriormente levavam mais de 120 horas a completar na melhor hardware quântica da IBM estavam a ser executadas em aproximadamente 2,4 horas — uma aceleração de cerca de 50 vezes.

No início de 2024, a IBM também completou o seu “Desafio 100×100” autoimposto, executando um circuito de 100 qubits com profundidade 100 em horas. Trata-se de um cálculo de “escala utilitária” — um que não pode ser resolvido por força bruta clássica — e concluí-lo representa o tipo de prova de progresso incremental e ponderado que a IBM construiu a sua reputação.

O resultado mais tecnicamente relevante da IBM em 2024 veio num artigo na Nature, descrevendo um novo código de correção de erros chamado “código bicicleta bivariada” qLDPC. A correção de erros quânticos convencional usando códigos de superfície requer cerca de 3.000 qubits físicos para codificar um qubit lógico fiável. O novo código da IBM consegue uma supressão de erros comparável usando apenas 144 qubits de dados mais 144 qubits ancilla para verificações de erro — uma redução de 10x no overhead. Este tipo de ganho de eficiência é exatamente o que faz a computação quântica tolerante a falhas parecer menos uma meta distante e mais um problema de engenharia com um caminho de solução bem definido.

O roadmap completo de hardware da IBM e as especificações atuais dos processadores estão documentados em ibm.com/quantum.

NIST e Criptografia Pós-Quântica: A Descoberta de 2024 que Ninguém Fala

O quarto grande avanço de 2024 não envolveu um processador quântico. Em agosto de 2024, o Instituto Nacional de Padrões e Tecnologia dos EUA (NIST) publicou oficialmente os primeiros padrões de criptografia pós-quântica — algoritmos projetados para resistir a ataques de futuros computadores quânticos. Dois dos três algoritmos ((ML-KEM e ML-DSA)) foram desenvolvidos por criptógrafos da IBM Research em Zurique.

Por que isto pertence a um artigo sobre avanços em computação quântica? Porque é o primeiro reconhecimento concreto por parte de um organismo de padrões global de que computadores quânticos capazes de quebrar a criptografia atual já não são apenas teóricos. Os padrões existem porque governos e empresas precisam começar a transição agora, antes que os computadores quânticos com relevância criptográfica cheguem. O cronograma de transição, do anúncio dos padrões até à sua implementação generalizada, costuma levar uma década ou mais. A decisão do NIST em 2024 efetivamente iniciou esse relógio.

Para infraestruturas de blockchain e ativos digitais, isto é diretamente relevante. Os esquemas atuais de criptografia assimétrica que protegem carteiras, transações e contratos inteligentes precisarão, eventualmente, ser substituídos por alternativas resistentes a quânticos. A cobertura do BlockchainReporter sobre desenvolvimentos em blockchain e criptografia acompanha essa transição à medida que ela se desenrola na indústria.

Para uma análise detalhada de como os avanços quânticos afetam especificamente a segurança das criptomoedas, consulte a análise do BlockchainReporter sobre o impacto da computação quântica na criptomoeda.

A Avaliação Honesta: O que 2024 Provou e o que Não Provou

Seria fácil interpretar o acima como se a computação quântica já tivesse “chegado”. Essa ideia não está totalmente correta, e os investigadores envolvidos foram explícitos quanto a isso.

O Willow do Google ainda não está a executar as aplicações que o seu roteiro de longo prazo promete — descoberta de medicamentos, ciência dos materiais, otimização financeira. Demonstrou correção de erros abaixo do limiar e um resultado de benchmark. A diferença entre isso e um cálculo comercialmente útil ainda é grande, exigindo taxas de erro significativamente inferiores às atuais.

Para contextualizar como a comunidade de criptomoedas está realmente a responder a esses desenvolvimentos, a cobertura do BlockchainReporter sobre opiniões de especialistas sobre ameaças quânticas ao Bitcoin oferece uma perspetiva útil sobre a lacuna entre risco teórico e realidade atual.

Os 50 qubits lógicos da Quantinuum podem detectar erros, mas a correção completa de erros — detectar e corrigir sem destruir o estado quântico — é um problema mais difícil que ainda está a ser trabalhado. O recorde da Atom Computing, usando átomos neutros, requer uma infraestrutura de controlo a laser extremamente sofisticada que ainda não existe em escala.

O Heron R2 da IBM é o sistema mais prático em implantação em 2024 — está na nuvem quântica da IBM, clientes empresariais estão a executar cargas de trabalho nele, e o benchmark 100×100 demonstra resultados de escala utilitária. Mas o processador Starling, o primeiro sistema totalmente corrigido de erros da IBM, só deve estar disponível em 2029.

O que 2024 provou é mais importante do que o que não provou. O campo deixou de avançar numa direção única e começou a avançar em todas as direções simultaneamente — hardware, correção de erros, qubits lógicos, eficiência de software e padrões criptográficos. Como comunidade de investigação, começou a agir menos como uma disciplina de física teórica e mais como um campo de engenharia com marcos que podem ser verificados e reproduzidos de forma independente.

Para os leitores do BlockchainReporter que acompanham a convergência entre computação quântica e IA, que está a remodelar a infraestrutura financeira, a secção de desenvolvimentos recentes em blockchain e tecnologia emergente cobre como essas mudanças afetam sistemas descentralizados e a segurança de ativos digitais em tempo real.

O que vem a seguir: a trajetória de 2025–2026

As descobertas de 2024 preparam um conjunto específico de próximos passos que o campo está agora a trabalhar ativamente.

O próximo marco do Google após o Willow é alcançar operação tolerante a falhas — passar da correção de erros abaixo do limiar para uma correção de erros completa, onde o sistema pode executar cálculos arbitrariamente longos de forma fiável. O algoritmo Quantum Echoes, publicado no processador Willow em 2025, demonstrou a primeira vantagem quântica verificável para um problema computacional real, marcando um passo além das demonstrações de benchmark em direção a resultados relevantes para aplicações.

A roadmap da Microsoft aponta para 50–100 qubits lógicos entrelaçados em implantações comerciais nos próximos anos — suficientes, segundo a sua própria estimativa, para “verdadeiras revoluções práticas em ciência dos materiais ou química”. O seu chip Majorana 1, introduzido em 2025 e baseado em qubits topológicos exóticos, representa uma terceira aposta arquitetural, ao lado das abordagens de supercondutores e átomos neutros.

O processador Starling da IBM, previsto para 2029, visa alcançar 100 milhões de portas em 200 qubits corrigidos usando o esquema de correção de erros Gross — a arquitetura que a IBM acredita que finalmente fará a ponte entre utilidade quântica e vantagem quântica para problemas de valor comercial.

A trajetória a partir de 2024 aponta numa direção consistente: a questão deixou de ser se a computação quântica de correção de erros em grande escala é possível. Os avanços de 2024 mostraram que é possível através de múltiplas abordagens de hardware. A questão agora é qual delas escala mais rapidamente, e quão rapidamente as aplicações que justificam o investimento se tornam uma realidade.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar