A aposta quântica do Google no futuro da IA ​​- e no que isso significa para a humanidade

O Google tem mais poder de computação, dados e talento para buscar inteligência artificial do que qualquer outra empresa na Terra - e isso não está diminuindo a velocidade. É por isso que os humanos também não podem.

A aposta quântica do Google no futuro da IA ​​- e no que isso significa para a humanidade

O cérebro humano é engraçado. Certas memórias podem ficar conosco para sempre: o nascimento de uma criança, um acidente de carro, um dia de eleição. Mas armazenamos apenas alguns detalhes - a cor da sala de parto do hospital ou o cheiro da seção eleitoral - enquanto outros desaparecem, como o rosto da enfermeira quando a criança nasceu ou o que vestíamos durante o acidente. Para o CEO do Google, Sundar Pichai, o dia em que viu a IA sair de um laboratório será lembrado para sempre.



Isso era 2012, em uma sala com uma pequena equipe, e éramos poucos, ele me conta. Um engenheiro chamado Jeff Dean, um lendário programador do Google que ajudou a construir seu mecanismo de busca, estava trabalhando em um novo projeto e queria que Pichai desse uma olhada. Sempre que Jeff deseja atualizá-lo sobre algo, você fica animado com isso, diz ele.

Pichai não se lembra exatamente em qual prédio estava quando Dean apresentou seu trabalho, embora detalhes estranhos daquele dia tenham ficado com ele. Ele se lembra de ficar de pé, em vez de sentar, e alguém brincando sobre uma confusão de RH que designou o recém-contratado Geoffrey Hinton - o Pai do Deep Learning, pesquisador de IA por quatro décadas e, mais tarde, vencedor do Prêmio Turing - como estagiário.



O futuro CEO do Google era um vice-presidente sênior na época, rodando Chrome e Apps, e ele não estava pensando em IA. Ninguém no Google estava, realmente, não de uma forma significativa. Sim, os co-fundadores do Google, Larry Page e Sergey Brin, haviam declarado publicamente 12 anos antes que a inteligência artificial transformaria a empresa: O mecanismo de pesquisa ideal é inteligente, disse Page On-line revista em maio de 2000. Tem que entender sua consulta, e tem que entender todos os documentos, e isso é claramente AI. Mas no Google e em outros lugares, o aprendizado de máquina vinha apresentando resultados escassos por décadas, apesar das grandes promessas.



[Ilustração: Gabriel Silveira ]

Agora, porém, forças poderosas estavam se agitando nos servidores do Google. Por pouco mais de um ano, Dean, Andrew Ng e seus colegas construíram uma enorme rede de computadores interconectados, ligados entre si de formas modeladas no cérebro humano. A equipe projetou 16.000 processadores em 1.000 computadores, que - combinados - eram capazes de fazer 1 bilhão de conexões. Isso era sem precedentes para um sistema de computador, embora ainda longe da capacidade de um cérebro humano de mais de 100 trilhões de conexões.

Para testar como essa enorme rede neural processava os dados, os engenheiros realizaram um experimento aparentemente simples. Por três dias seguidos, eles alimentaram a máquina com uma dieta de milhões de imagens aleatórias de vídeos no YouTube, que o Google adquiriu em 2006. Eles não deram outras instruções, esperando para ver o que faria se deixada por conta própria. O que eles aprenderam é que o cérebro de um computador em excesso no YouTube não é tão diferente do de um humano. Em uma parte remota da memória do computador, Dean e seus colegas descobriram que ele gerou espontaneamente uma imagem borrada e superpixel de uma coisa que tinha visto repetidamente ao longo de 72 horas: um gato.



Era uma máquina ensinando a si mesma a pensar.

No dia em que viu esse tipo de inteligência emergir dos servidores do Google pela primeira vez, Pichai se lembra de ter sentido uma mudança em seu pensamento, uma sensação de premonição. Essa coisa iria aumentar e talvez revelar a forma como o universo funciona, diz ele. Esta será a coisa mais importante em que trabalharemos como humanidade.

A ascensão da IA ​​dentro do Google se assemelha a uma jornada em que bilhões de nós fazemos coletivamente, arremessando-se para um futuro digital que poucos de nós entendemos completamente e do qual não podemos optar por sair. Dominado em grande parte pelo Google. Poucas outras empresas (quanto mais governos) no planeta têm a capacidade ou a ambição de desenvolver o pensamento computadorizado. O Google opera mais produtos, com 1 bilhão de usuários, do que qualquer outra empresa de tecnologia no mundo: Android, Chrome, Drive, Gmail, Google Play Store, Maps, Fotos, Pesquisa e YouTube. A menos que você viva na China, se você tiver uma conexão com a Internet, quase certamente confiará no Google para aumentar algumas partes do seu cérebro.

o que significa 411



Pouco depois de Pichai assumir o cargo de CEO, em 2015, ele decidiu refazer o Google como uma primeira empresa de IA. Já tinha várias divisões de IA orientadas para a pesquisa, incluindo Google Brain e DeepMind (que adquiriu em 2014), e Pichai se concentrou em transformar toda essa inteligência sobre inteligência em novos e melhores produtos do Google. A Escrita inteligente do Gmail, lançada em maio de 2018, já sugere mais de 2 bilhões de caracteres em rascunhos de e-mail a cada semana. O Google Tradutor pode recriar sua própria voz em um idioma que você não fala. E o Duplex, o assistente pessoal com tecnologia de IA do Google, pode agendar compromissos ou reservas para você por telefone usando uma voz que soa tão humana que muitos destinatários das chamadas não sabiam que era um robô, levantando questões éticas e reclamações públicas. A empresa diz que sempre divulgou aos consumidores que as ligações vêm do Google.

[Ilustração: Gabriel Silveira ]

O alcance total da influência de IA do Google vai muito além das ofertas da empresa. Desenvolvedores externos - tanto em startups quanto em grandes corporações - agora usam as ferramentas de IA do Google para fazer tudo, desde treinar satélites inteligentes e monitorar mudanças na superfície da Terra até erradicar a linguagem abusiva no Twitter (bem, é uma tentativa). Existem agora milhões de dispositivos que usam o Google AI, e isso é apenas o começo. O Google está prestes a alcançar o que é conhecido como supremacia quântica. Este novo tipo de computador será capaz de quebrar equações complexas um milhão ou mais de vezes mais rápido do que as normais. Estamos prestes a entrar na era dos foguetes da computação.

Usada para o bem, a inteligência artificial tem o potencial de ajudar a sociedade. Ele pode encontrar curas para doenças mortais (os executivos do Google dizem que suas máquinas inteligentes demonstraram a capacidade de detectar câncer de pulmão um ano antes do que os médicos humanos), alimentar os famintos e até mesmo curar o clima. Um artigo submetido a um jornal científico da Cornell University em junho por vários pesquisadores de IA (incluindo alguns afiliados ao Google) identificou várias maneiras pelas quais o aprendizado de máquina pode lidar com as mudanças climáticas, desde acelerar o desenvolvimento de combustíveis solares até otimizar radicalmente o uso de energia.

Usada para o mal, a IA tem o potencial de empoderar tiranos, esmagar os direitos humanos e destruir a democracia, a liberdade e a privacidade. A American Civil Liberties Union divulgou um relatório em junho intitulado The Dawn of Robot Surveillance que alertava como milhões de câmeras de vigilância (como as vendidas pelo Google) já instaladas nos Estados Unidos poderiam empregar IA para permitir o monitoramento governamental e o controle dos cidadãos. Isso já está acontecendo em partes da China. Uma ação judicial aberta no mesmo mês acusa o Google de usar IA em hospitais para violar a privacidade dos pacientes.

Cada avanço poderoso na história humana foi usado tanto para o bem quanto para o mal. A imprensa permitiu a propagação do senso comum de Thomas Paine, mas também do manifesto fascista de Adolf Hitler, Mein Kampf. Com a IA, no entanto, há uma dimensão extra para essa situação: a impressora não escolhe o tipo que define. A IA, quando atinge todo o seu potencial, seria capaz de fazer exatamente isso.

Agora é a hora de fazer perguntas. Pense nos tipos de pensamentos que você gostaria que as pessoas tivessem inventando o fogo, começando a revolução industrial ou [desenvolvendo] a energia atômica, diz Greg Brockman, cofundador da OpenAI, uma startup focada na construção de inteligência artificial geral que recebeu um investimento de US $ 1 bilhão da Microsoft em Julho.

Partidos políticos de esquerda e direita argumentam que o Google é grande demais e precisa ser desmembrado. Um Google fragmentado democratizaria a IA? Ou, como alertam os líderes da empresa, ela entregaria a supremacia da IA ​​ao governo chinês, que declarou sua intenção de assumir a liderança? O presidente Xi Jinping comprometeu mais de US $ 150 bilhões com a meta de se tornar o líder mundial em IA até 2030.

Dentro do Google, facções em duelo estão competindo pelo futuro da IA. Milhares de funcionários estão em revolta contra seus líderes, tentando impedir que a tecnologia que estão construindo seja usada para ajudar governos a espionar ou travar guerra. Como o Google decide desenvolver e implantar sua IA pode muito bem determinar se a tecnologia acabará ajudando ou prejudicando a humanidade. Depois de construir esses sistemas [IA], eles podem ser implantados em todo o mundo, explica Reid Hoffman, cofundador do LinkedIn e VC que faz parte do conselho do Institute for Human-Centered Artificial Intelligence da Universidade de Stanford. Isso significa que qualquer coisa que [seus criadores] acertem ou errem terá um impacto em larga escala correspondente.


No início, a rede neural não é treinada, diz Jeff Dean em uma gloriosa noite de primavera em Mountain View, Califórnia. Ele está parado sob uma palmeira do lado de fora do Shoreline Amphitheatre, onde o Google está dando uma festa para comemorar o dia de abertura do I / O, sua vitrine anual de tecnologia.

Este evento é onde o Google revela aos desenvolvedores - e ao resto do mundo - para onde está indo. Dean, em uma pólo cinza malva, jeans, tênis e uma mochila com alça dupla nos ombros, é um dos headliners. É como conhecer Bono, diz um programador de software coreano que correu para tirar uma selfie com Dean depois que ele falou em um evento no início do dia. Jeff é Deus, outro me diz solenemente, quase surpreso por eu ainda não saber disso. No Google, Dean é frequentemente comparado a Chuck Norris, o astro de ação conhecido por seus movimentos de kung fu e por enfrentar vários agressores ao mesmo tempo.

Oh, isso parece bom! Eu quero um desses, Dean diz com um sorriso quando um garçom para com uma bandeja de copos de pudim de tapioca vegan. Encostado em uma árvore, ele fala sobre redes neurais da maneira que Laird Hamilton pode descrever como surfar no intervalo de Teahupo'o. Seus olhos se iluminam e suas mãos se movem em gestos amplos. Ok, então aqui estão as camadas da rede, diz ele, agarrando a árvore e usando o tronco grisalho para explicar como os neurônios de um cérebro de computador se interconectam. Ele olha atentamente para a árvore, como se visse algo escondido dentro dela.

No ano passado, Pichai nomeou Dean chefe da IA ​​do Google, o que significa que ele é responsável pelo que a empresa vai investir e construir - uma função que ele conquistou em parte ao dimensionar o experimento da rede neural do YouTube em uma nova estrutura para treinar suas máquinas para pensar em um grande escala. Esse sistema começou como um projeto interno chamado DistBelief, que muitas equipes, incluindo Android, Maps e YouTube, começaram a usar para tornar seus produtos mais inteligentes.

Mas no verão de 2014, conforme o DistBelief crescia dentro do Google, Dean começou a ver que ele tinha falhas. Ele não foi projetado para se adaptar a mudanças tecnológicas, como o surgimento das GPUs (os chips de computador que processam gráficos) ou o surgimento da fala como um conjunto de dados altamente complexo. Além disso, o DistBelief não foi projetado inicialmente para ser de código aberto, o que limitou seu crescimento. Então ele tomou uma decisão ousada: construir uma nova versão que fosse aberta a todos. Em novembro de 2015, Pichai apresentou o TensorFlow, o sucessor do DistBelief, um de seus primeiros grandes anúncios como CEO.

É impossível exagerar a importância de abrir o TensorFlow para desenvolvedores fora do Google. As pessoas mal podiam esperar para colocar as mãos nele, diz Ian Bratt, diretor de aprendizado de máquina da Arm, um dos maiores designers de chips de computador do mundo. Hoje, o Twitter o está usando para criar bots para monitorar conversas, classificar tweets e motivar as pessoas a passarem mais tempo em seu feed. A Airbus está treinando satélites para serem capazes de examinar quase qualquer parte da superfície da Terra, a poucos metros. Os alunos em Nova Delhi transformaram os dispositivos móveis em monitores da qualidade do ar. Na primavera passada, o Google lançou as primeiras versões do TensorFlow 2.0, o que torna sua IA ainda mais acessível para desenvolvedores inexperientes. O objetivo final é tornar a criação de aplicativos de IA tão fácil quanto construir um site.

O TensorFlow já foi baixado aproximadamente 41 milhões de vezes. Milhões de dispositivos - carros, drones, satélites, laptops, telefones - usam para aprender, pensar, raciocinar e criar. Um documento interno da empresa mostra um gráfico que rastreia o uso do TensorFlow dentro do Google (que, por extensão, rastreia projetos de aprendizado de máquina): aumentou 5.000% desde 2015.

No entanto, especialistas em tecnologia apontam que, se o TensorFlow for um presente para os desenvolvedores, também pode ser um cavalo de Tróia. Estou preocupado que eles estejam tentando ser os guardiões da IA, disse um ex-engenheiro do Google, que pediu para não ser identificado porque seu trabalho atual depende do acesso à plataforma do Google. Atualmente, o TensorFlow tem apenas um concorrente principal, o PyTorch do Facebook, que é popular entre os acadêmicos. Isso dá ao Google muito controle sobre a camada fundamental da IA ​​e pode vincular sua disponibilidade a outros imperativos do Google. Veja o que [o Google] fez com o Android, continua essa pessoa. No ano passado, os reguladores da União Europeia cobraram uma multa de US $ 5 bilhões sobre a empresa por exigir que os fabricantes de eletrônicos pré-instalem aplicativos do Google em dispositivos que executam seu sistema operacional móvel. O Google é atraente, mas enfrenta novas investigações por suas práticas competitivas na Europa e na Índia.

Ao ajudar a proliferação da IA, o Google criou uma demanda por novas ferramentas e produtos que pode vender. Um exemplo são as unidades de processamento de tensor (TPUs), que são circuitos integrados projetados para acelerar aplicativos usando TensorFlow. Se os desenvolvedores precisarem de mais energia para seus aplicativos TensorFlow - e geralmente precisam -, eles podem pagar ao Google por tempo e espaço usando esses chips executados nos data centers do Google.

O sucesso do TensorFlow conquistou os céticos na liderança do Google. Todo mundo sabia que a IA não funcionava, lembrou Sergey Brin a um entrevistador no Fórum Econômico Mundial em 2017. As pessoas tentaram, tentaram redes neurais, e nada funcionou. Mesmo quando Dean e sua equipe começaram a fazer progressos, Brin foi desconsiderado. Jeff Dean vinha periodicamente até mim e dizia: ‘Olha, o computador fez a imagem de um gato’, e eu disse: ‘Ok, isso é muito bom, Jeff’, disse ele. Mas ele teve que admitir que a IA foi o desenvolvimento mais significativo na computação em toda a minha vida.


O estágio 4 do Shoreline Amphitheatre acomoda 526 pessoas e todos os lugares estão ocupados. É o segundo dia de I / O, e Jen Gennai, chefe de inovação responsável do Google, está realizando uma sessão sobre como escrever o manual para inteligência artificial justa e ética e aprendizado de máquina. Ela diz à multidão: Identificamos quatro áreas que são nossas linhas vermelhas, tecnologias que não buscaremos. Não vamos construir ou implantar armas. Também não implantaremos tecnologias que consideremos violar os direitos humanos internacionais. (A empresa também se compromete a evitar tecnologias que causam danos gerais e coletar ou usar informações para vigilância, violando normas internacionalmente aceitas.) Ela e dois outros executivos do Google continuam explicando como a empresa agora incorpora seus princípios de IA em tudo que constrói, e que o Google tem um plano abrangente para lidar com tudo, desde erradicar vieses em seus algoritmos até prever as consequências indesejadas da IA.

Após a palestra, um pequeno grupo de desenvolvedores de diferentes empresas se mistura, insatisfeito. Acho que não temos o suficiente, observa alguém, um funcionário de uma grande empresa internacional que usa o TensorFlow e frequentemente faz parceria com o Google. Eles estão nos dizendo: 'Não se preocupe com isso. Todos nós sabemos que eles não 'entendem'.

Esses desenvolvedores têm todo o direito de ser céticos. A retórica do Google costuma contrastar com suas ações, mas os riscos são maiores com a inteligência artificial. O Gizmodo foi o primeiro a relatar, em março de 2018, que a empresa tinha um contrato com o Pentágono para a tecnologia de ataque de drones AI, apelidado de Projeto Maven. Depois que os funcionários do Google protestaram por três meses, Pichai anunciou que o contrato não seria renovado. Pouco depois, outro projeto veio à tona: o Dragonfly, um mecanismo de busca para usuários chineses projetado para ser tão poderoso e onipresente quanto o que supostamente é usado em 94% das pesquisas nos Estados Unidos, exceto que também obedece às regras de censura da China, que proíbem conteúdo em alguns tópicos relacionados a direitos humanos, democracia, liberdade de expressão e desobediência civil. O Dragonfly também vincularia os números de telefone dos usuários às suas pesquisas. Os funcionários protestaram por mais quatro meses e os ativistas tentaram envolver os acionistas da Amnistia Internacional e do Google na luta. Em dezembro passado, Pichai disse ao Congresso que o Google não tem planos de lançar o mecanismo de busca na China.

[Ilustração: Gabriel Silveira ]

Durante essa turbulência, um engenheiro do Google confrontou Dean diretamente sobre se a empresa continuaria trabalhando com regimes opressores. Precisamos saber: Quais são as linhas vermelhas? o engenheiro me diz, ecoando o próprio palavreado do Google. Eu estava pressionando por: Quais são as coisas que você nunca faria? Nunca recebi esclarecimentos. O funcionário pediu demissão em protesto.

Quando questionado hoje sobre o lado negro da IA, o amável Dean fica sério. As pessoas em minha organização foram muito francas sobre o que deveríamos fazer com o Departamento de Defesa, diz ele, referindo-se ao trabalho deles no Maven. Dean invoca a lista de aplicativos de IA do Google que ele não busca. Um deles é o trabalho com armas autônomas. Isso, para mim, é algo que eu não quero trabalhar ou ter nada a ver com isso, diz ele, olhando-me diretamente nos olhos.

como o starbucks conseguiu seu logotipo

Em meio à controvérsia inicial do Projeto Maven, A interceptação e O jornal New York Times publicou e-mails que revelaram as preocupações internas do Google sobre como a extensão de suas ambições de IA podem ser recebidas. Não sei o que aconteceria se a mídia começasse a pegar o tema de que o Google está secretamente construindo armas de IA, disse Fei-Fei Li, então cientista-chefe de IA do Google Cloud (e um dos autores dos princípios de IA do Google), disse aos colegas em um deles. Evite a TODOS OS CUSTOS qualquer menção ou implicação de IA. IA armada é provavelmente um dos tópicos mais sensíveis da IA ​​- se não o mais. Esta é a carne vermelha para a mídia encontrar todas as maneiras de prejudicar o Google. Ela também sugeriu que a empresa plante algumas histórias de relações públicas positivas sobre a democratização da IA ​​pelo Google e algo descrito como IA humanística. Eu teria muito cuidado em proteger essas imagens muito positivas, escreveu ela. (Li se recusou a ser entrevistada para esta história. Desde então, ela deixou a empresa para co-liderar o Human-Centered AI Institute de Stanford.)

Esses protestos de IA criaram uma crise contínua de relações públicas. Em março, a empresa anunciou um Conselho Consultivo Externo de Tecnologia Avançada, coloquialmente conhecido como seu conselho de ética de IA, mas desmoronou pouco mais de uma semana depois, quando milhares de funcionários do Google protestaram contra sua constituição. O conselho incluiu um CEO da empresa de drones e o presidente da Heritage Foundation, de direita, que fez declarações públicas transfóbicas e negou as mudanças climáticas.

O próprio Pichai interveio várias vezes. Em novembro passado, ele escreveu aos funcionários, reconhecendo os erros do Google. Reconhecemos que nem sempre acertamos tudo no passado e lamentamos sinceramente por isso, disse ele. É claro que precisamos fazer algumas mudanças. Mas a controvérsia continua perseguindo o Google sobre como ele implementa a tecnologia. Em agosto, uma organização de funcionários chamada Googlers for Human Rights lançou uma petição pública com mais de 800 assinaturas pedindo à empresa que não oferecesse nenhuma tecnologia para Alfândega e Proteção de Fronteiras, Imigração e Fiscalização Alfandegária ou Escritório de Reassentamento de Refugiados. (Um representante do Google responde que a empresa apóia o ativismo dos funcionários.)


Quando pergunto a Pichai sobre como os princípios de IA do Google influenciam seu próprio trabalho, ele o conecta a outra prioridade corporativa: amenizar as preocupações sobre o que o Google faz com todos os dados de usuário que possui. O que estou incentivando as equipes é em torno de IA e privacidade, diz ele. É um pouco contra-intuitivo, mas acho que a IA nos dá a chance de aumentar a privacidade. Na primavera passada, ele discutiu os esforços do Google para usar o aprendizado de máquina para proteger os dados em um smartphone de serem acessados ​​por qualquer pessoa que não seja seu proprietário.

Ele diz que os temores sobre os perigos da IA ​​são exagerados. É importante que as pessoas entendam com o que não se preocupar também, ou seja, é muito cedo e temos tempo, explica ele. Pichai espera que o Google possa suprimir qualquer inquietação sobre os perigos da IA, mostrando sua virtude. Sob uma iniciativa batizada de AI para o Bem Social, o Google está implantando seu aprendizado de máquina para resolver o que descreve como os maiores problemas sociais, humanitários e ambientais do mundo. Há equipes aproveitando a IA para prever enchentes, rastrear baleias, diagnosticar câncer e detectar mineração e extração ilegal de madeira. No I / O, um jovem empresário de Uganda, convidado pelo Google, falou sobre o uso do TensorFlow para rastrear vermes do exército em toda a África, uma causa de fome em todo o continente. O AI Impact Challenge do Google, lançado em 2018, oferece US $ 25 milhões em doações para instituições de caridade e startups que aplicam IA para causas como salvar florestas tropicais e combater incêndios.

A empresa também recuou em duas iniciativas polêmicas em meio ao debate sobre IA. Em dezembro passado, o Google engavetou seu software de reconhecimento facial, mesmo com a rival Amazon avançando com sua própria versão, apesar dos protestos de seus próprios funcionários e das acusações de que permite que as autoridades policiais façam o perfil racial dos cidadãos. Uma fonte estima que a mudança pode custar bilhões em receita ao Google. A empresa também retirou-se da licitação de um projeto de US $ 10 bilhões para fornecer computação em nuvem ao Pentágono, alegando preocupações éticas. Amazon e Microsoft ainda estão na corrida.

Quando questionado sobre como o Google determina se um projeto é bom ou ruim para a sociedade, Pichai cita algo chamado projeto de leitura labial. Uma equipe de engenheiros teve a ideia de usar IA em câmeras para ler os lábios. A intenção era possibilitar a comunicação para pessoas não-verbais. No entanto, alguns levantaram preocupações sobre consequências não intencionais. Os malfeitores poderiam usá-lo para vigilância por, digamos, câmeras de rua? Os engenheiros o testaram em câmeras de rua, CCTV e outras câmeras públicas e determinaram que a IA precisa estar em close para funcionar. O Google publicou um artigo detalhando o esforço, confiante de que, por enquanto, ele pode ser usado com segurança.


É uma tarde ensolarada em Santa Bárbara, Califórnia, mas o termômetro dentro do laboratório do Google marca 10 milikelvin, cerca de 1/100 de um Kelvin acima do zero absoluto. Este é um dos lugares mais frios do universo, diz-me Erik Lucero, um cientista pesquisador que trabalha no laboratório. Dentro disso, ele diz, apontando para um recipiente de metal brilhante, é mais frio que o espaço. O recipiente tem o tamanho e a forma de um tambor de óleo, feito de cobre e banhado a ouro verdadeiro. Fios grossos feitos de nióbio-titânio emergem da parte superior, como um polvo, transportando sinais de controle e medição de e para seu processador.

Este barril envolve uma das máquinas mais frágeis e potencialmente mais poderosas da Terra: um computador quântico. Se tudo correr como planejado, vai turbinar as capacidades da inteligência artificial de maneiras que podem muito bem remodelar a forma como pensamos sobre o universo - e o lugar da humanidade nele.

O sonho da computação quântica existe desde os anos 80, quando Richard Feynman, um membro original do Projeto Manhattan, que construiu a bomba atômica, começou a teorizar maneiras de desbloquear o poder da computação adaptando a mecânica quântica usada para criar a ciência nuclear. Hoje, nossos computadores funcionam com bits de informação que são iguais a zero ou um em valor; eles precisam calcular resultados, probabilidades e equações passo a passo, esgotando em série todas as opções antes de chegar a uma resposta. Os computadores quânticos, por outro lado, criam qubits, onde zeros e uns podem existir simultaneamente. Isso permite que os qubits processem certos tipos de informações com muito mais rapidez. Quão rápido? Um exemplo amplamente citado é que um computador de 300 qubit poderia realizar tantos cálculos simultâneos quanto o número de átomos no universo.

Na verdade, são qubits, diz Lucero, orientando-me a olhar no microscópio, onde vejo alguns Xs pretos difusos. Existem 22 deles. Este é o lote menor. Em outra parte do laboratório, o Google criou 72 qubits. Por enquanto, eles só podem sobreviver por 20 microssegundos, e as condições devem ser mais frias do que o espaço sideral.

Para criar um computador quântico comercialmente viável, o Google precisará produzir qubits suficientes e mantê-los estáveis ​​e livres de erros por tempo suficiente para ser capaz de fazer grandes avanços na computação. Outros laboratórios também estão competindo aqui, mas o Google reuniu alguns dos maiores especialistas do mundo para encontrar maneiras de criar um ambiente no qual os qubits possam sobreviver e prosperar. Ele está se movendo mais rápido em direção a essa meta do que qualquer um esperava: em dezembro passado, o Google testou seu melhor processador quântico contra um laptop normal, e o laptop venceu. Algumas semanas depois, após alguns ajustes no processador, ele superou o laptop, mas ainda estava atrás de um computador desktop. Em fevereiro, o computador quântico superou todos os outros computadores do laboratório.

Hartmut Neven, que lidera a equipe quântica do Google, apresentou os avanços do laboratório durante o Simpósio Quantum Spring do Google em maio, descrevendo os aumentos no poder de processamento como dupla exponencial, uma equação alucinante que se parece com isto:

221222223224

Nos círculos da ciência da computação, essa taxa de crescimento da computação quântica foi batizada de lei de Neven, uma homenagem à lei de Moore, que postula que a computação clássica avança dobrando o número de transistores que cabem em um chip a cada 18 meses.

Agora, a equipe do Google está se concentrando no grande marco conhecido como supremacia quântica. Ainda levará anos antes que o computador quântico do Google atinja todo o seu potencial. Mas no laboratório, a antecipação desse momento é palpável. Atualmente, existem problemas que a humanidade não será capaz de resolver sem um computador quântico, diz Lucero, ao lado da máquina preparada para realizar esse feito. Toda a ideia de que você está entrando em um novo potencial para a humanidade é empolgante.

A sala zumbe ritmicamente, o som de qubits eclodindo. O que significará para a humanidade quando os computadores puderem pensar e calcular em velocidades exponencialmente mais rápidas - e em planos paralelos? Essa ciência emergente pode ser capaz de explicar os mistérios mais profundos do universo - matéria escura, buracos negros, o cérebro humano. É o momento ‘Hello, World!’, Diz Lucero, referindo-se à introdução do Macintosh em 1984, o computador que inaugurou uma nova era para uma geração de programadores. Conforme o Google abre as portas para esse novo cosmos, todos nós precisamos nos preparar para o que está do outro lado.

Uma versão deste artigo apareceu na edição de outubro de 2019 da Fast Company revista .