Computação e o Metaverso
Aqui, Computação é definido como “A habilitação e fornecimento de poder de computação para suportar o Metaverso, suportando funções diversas e exigentes como cálculo físico, renderização, reconciliação e sincronização de dados, inteligência artificial, projeção, captura de movimento e tradução.
Estimando a necessidade de maior poder de computação
Nas categorias de hardware e rede, revisei apenas uma parte dos dados incrementais que serão gerados, enviados e recebidos como parte do Metaverso — como hápticos, varredura facial e varreduras de ambiente ao vivo. O escopo total terá ordens de magnitude maiores.
Por exemplo, o fundador e CEO da Nvidia, Jensen Huang, vê o próximo passo para simulações imersivas como algo maior do que explosões ou corridas de rua mais realistas. Em vez disso, é a aplicação das “leis da física de partículas, da gravidade, do eletromagnetismo, das ondas eletromagnéticas, [incluindo] ondas de luz e rádio … de pressão e som”. E assim como o mundo virtual é aumentado, também o será o “real”. A cada ano, mais sensores, câmeras e chips IoT serão integrados ao mundo físico ao nosso redor, muitos dos quais serão conectados em tempo real a um simulacro virtual que pode interagir de volta. Enquanto isso, nossos dispositivos pessoais servirão como passaportes para, e geradores de meio período, muitas dessas experiências. Resumindo, grande parte do mundo ao nosso redor estará continuamente interconectado e online. Incluindo nós.
Na totalidade, o Metaverso terá os maiores requisitos computacionais contínuos da história da humanidade. E a computação é, e provavelmente continuará sendo, incrivelmente escassa. Para citar Chris Dixon, sócio geral da Andreessen Horowitz, “Todos os bons recursos de computação do mundo, na história, tiveram a demanda superando a oferta … é verdade no caso da potência da CPU. Isso vale para o poder da GPU. ” Como resultado, a disponibilidade e o desenvolvimento da capacidade de computação restringirão e definirão o Metaverso (mesmo que os usuários finais não percebam isso). Não importa quantos dados você pode receber, ou com que rapidez, ou por que, se eles não podem ser usados.
Considere as experiências semelhantes ao Metaverso mais populares de hoje, como Fortnite ou Roblox . Embora essas plataformas tenham sucesso por meio de incríveis realizações criativas, é importante reconhecer que suas ideias subjacentes estão longe de ser novas — elas são apenas possíveis recentemente. Os desenvolvedores há muito imaginam experiências com dezenas de jogadores ao vivo (senão centenas ou milhares) em uma única simulação compartilhada, bem como ambientes virtuais limitados por nada além da imaginação.
Foi apenas em meados da década de 2010 que milhões de dispositivos de consumo puderam processar um jogo com 100 jogadores reais em uma única partida, e que hardware do lado do servidor acessível e suficiente estava disponível e era capaz de sincronizar essas informações quase em tempo real . Uma vez que essa barreira técnica foi quebrada, a indústria de jogos foi rapidamente superada por jogos focados em UGC rico e alto número de usuários simultâneos ( Free Fire , PUBG , Fortnite , Call of Duty: Warzone , Roblox , Minecraft ). E esses jogos rapidamente se expandiram para os tipos de experiências de mídia que antes eram ‘Apenas IRL’ (por exemplo, o show de Travis Scott em Fortnite, ou Lil Nas X’s em Roblox)
No entanto, mesmo quatro anos após o surgimento do gênero Battle Royale, uma série de truques ainda são necessários para garantir que funcione. Por exemplo, muitos jogadores nunca estão realmente juntos. Em vez disso, eles estão espalhados por um grande mapa. Isso significa que, embora o servidor precise rastrear o que cada jogador está fazendo, o dispositivo de cada jogador não precisa renderizá-los ou rastrear / processar suas ações. E quando Fortnitereúne os jogadores em um espaço mais confinado para um evento social, como um concerto, reduz o número de participantes para 50 e limita o que eles podem fazer em relação aos modos de jogo padrão. E para usuários com processadores menos potentes, mais concessões são feitas. Dispositivos com alguns anos de idade escolherão não carregar as roupas personalizadas de outros jogadores (já que eles não têm consequências na jogabilidade) e, em vez disso, apenas representá-los como personagens de estoque. Notavelmente, Free Fire , que é apenas móvel e jogado principalmente em Androids de baixo a médio alcance em mercados emergentes, é limitado a 50 para o modo main battle royale.
“Isso me faz pensar para onde irão as evoluções futuras desses tipos de jogos que não podemos construir hoje. Nosso pico é de 10,7 milhões de jogadores em Fortnite — mas são 100.000 sessões de cem jogadores. Podemos eventualmente colocá-los todos juntos neste mundo compartilhado? E como seria essa experiência? Existem gêneros totalmente novos que ainda não podem ser inventados por causa da tendência sempre crescente da tecnologia. ” — Tim Sweeney (2019)
Isso será resolvido aos poucos, é claro. Call of Duty: Warzone ofereceu partidas para 150 jogadores em 2019 (embora apenas em consoles e PCs de alta potência; Call of Duty Mobile é limitado a 100). Roblox também permitiu 200 jogadores em seus mundos de fidelidade relativamente mais baixa, com até 700 possíveis em testes beta (e mais de 1.000 prometidos). Improvável fez testes públicos com 4.000 . Mas ‘mais usuários simultâneos’ não é a única demanda em nossos dispositivos de computação. Queremos que nossos personagens em Fortnite tenham mais itens personalizáveis do que apenas uma roupa e uma mochila. Que tal sapatos e chapéus separados? A capacidade de participar dentroum concerto virtual, em vez de apenas assistir a um de uma área isolada e pouco interativa? Para retornar a um exemplo anterior, menos de 1% dos desktops ou laptops Macs e PCs podem até mesmo jogar o Microsoft Flight Simulator em suas configurações de baixa fidelidade. Mesmo os consoles Xbox da próxima geração da Microsoft, a Série S e a Série X, que foram lançados dois meses após o título, ainda não o suportam (embora o farão ainda este ano).
Isso não significa que todas as experiências focadas no Metaverso exigirão um processamento rico e instantâneo (pense em uma sala de conferências skeuomórfica), muito menos o tempo todo (experiências imersivas são melhores em maior fidelidade, mas ser capaz de acessá-las de mais dispositivos é melhor do que apenas poder acessá-los do seu melhor dispositivo ) .
Mas a história humana mostra que o poder de computação adicional sempre leva a avanços — é exatamente por isso que a demanda por computação sempre excedeu sua oferta. Para este fim, o desejo de Jensen Huang de emular o desígnio divino de Deus pode parecer excessivo e impraticável, mas isso requer predizer e descartar as inovações que poderiam advir disso. Quem teria pensado que permitir a batalha royales de 100 jogadores mudaria o mundo?
Onde localizar e desenvolver computação
Existem algumas escolas diferentes de pensamento quando se trata de abordar nossa necessidade cada vez maior de computação e sua relativa escassez. Uma é concentrar o máximo de processamento de simulação possível na nuvem, em vez de em dispositivos de computação locais. O Google Stadia e o Amazon Luna, por exemplo, processam todos os videogames na nuvem e, em seguida, enviam toda a experiência renderizada para o dispositivo de um usuário como um stream de vídeo. A única coisa que um dispositivo cliente precisa fazer é reproduzir este vídeo e enviar entradas (por exemplo, mover para a esquerda, pressionar X). Os proponentes dessa abordagem gostam de destacar a lógica de fornecer energia às nossas casas por meio de redes elétricas e usinas industriais, e não de geradores particulares específicos para casa. O modelo baseado em nuvem permite que os consumidores substituam seu nível de consumidor, raramente atualizado, e computadores marcados por varejistas em máquinas “computacionalmente ridículas” (para citar Jeff Bezos) de nível empresarial que são mais econômicas por unidade de capacidade de processamento e mais facilmente substituídas. Isso significa que, quer você tenha um iPhone de US $ 1.500 ou uma geladeira velha habilitada para WiFi com uma tela de vídeo, você poderia, em teoria, reproduzirCyberpunk 2077 em toda a sua glória totalmente representada.
Outra tese sugere que é melhor apostar nos avanços da computação local, em vez de em supercomputadores remotos que precisam enfrentar redes não confiáveis (consulte a Seção 2). A renderização baseada na nuvem e o streaming de vídeo são uma ideia atraente, mas também aumentam substancialmente a quantidade de dados de baixa latência que precisam ser entregues. Conforme mencionado anteriormente, o conteúdo de jogos tem como alvo um mínimo de 60 quadros por segundo (mais do que o dobro do padrão para vídeo) e até 90–120 quadros, idealmente com definição de 2K a 4K. Entregar isso de forma confiável, para todos que desejam participar do Metaverso, ao mesmo tempo, e com baixa latência … é muito difícil. É aqui que a analogia do gerador de energia começa a falhar; não lutamos para obter a energia de que precisamos diariamente, nem tão rapidamente quanto necessário.
E mesmo em latência ultrabaixa, faz pouco sentido transmitir (em vez de processar localmente) dados de AR, dada a velocidade com que uma câmera se move e novos dados de entrada são recebidos (ou seja, literalmente a velocidade da luz e a apenas alguns metros de distância) . Dados os intensos requisitos computacionais de AR, portanto, é provável que nossos principais dispositivos pessoais / móveis sejam capazes de fazer um trabalho ‘bom o suficiente’ na maioria das renderizações em tempo real.
Até agora, a computação remota também não provou ser muito mais eficiente para renderização. Isso ocorre porque as GPUs baseadas em nuvem não geram ‘poder’ de renderização genérica. Insead, eles são instâncias bloqueadas. Uma única GPU, remota ou local, oferece suporte à renderização para apenas um único usuário. Ninguém ainda descobriu como de forma eficaz, econômica e com expectativas modernas de resolução e taxa de quadros, dividir seu poder de renderização entre vários usuários da mesma forma que um plano de energia divide eletricidade em várias casas, ou um servidor de CPU pode suportar entrada, dados de localização e sincronização para cem jogadores em uma batalha real.
Como resultado, os servidores de renderização em nuvem normalmente enfrentam problemas de utilização devido à necessidade de planejar para o pico de demanda. Um serviço de jogos em nuvem pode exigir 75.000 servidores dedicados para a área de Cleveland às 20h de domingo à noite, mas apenas 4.000 às 4h de segunda-feira. Como consumidor, você pode comprar uma GPU de $ 400 e deixá-la ficar offline o quanto quiser, mas a economia do data center é orientada para a otimização para a demanda.
É por isso que a AWS oferece aos clientes uma taxa reduzida se eles alugarem servidores da Amazon com antecedência (‘instâncias reservadas’). Os clientes têm acesso garantido para o próximo ano, porque eles pagaram pelo servidor, e a Amazon está embolsando a diferença entre seu custo e o preço do cliente (a instância reservada de GPU Linux mais barata da AWS, equivalente a um PS4, custa mais de US $ 2.000 por um ano ) Se um cliente quiser acessar os servidores quando precisar deles (‘instâncias pontuais’), eles podem descobrir que não estão disponíveis, ou apenas GPUs de baixo custo estão disponíveis, ou apenas GPUs em outra região estão, o que significa maior latência.
Se esse modelo decolar, os preços vão melhorar (‘a margem da AWS para instâncias reservadas do consumidor é minha oportunidade’), mas alugar GPUs de última geração com baixa utilização e marcação corporativa sempre será caro. Os data centers também geram calor considerável, o que requer energia cara para resfriar, e a mudança de dados de streaming em nuvem para conteúdo de alta resolução e alta taxa de quadros também significa custos de largura de banda substancialmente mais altos. Ambas as despesas são aditivas em comparação com a computação local.
O mais importante é que os processadores de consumo melhoram muito mais rápido do que as redes, pois são substituídos com muito mais frequência e não estão literalmente lutando contra a velocidade da luz. Esse crescimento não atenua todos os desafios da rede, mas sugere que é melhor pedir aos dispositivos do lado do cliente para realizar mais cálculos do que enviar streams de vídeo pesados para esses dispositivos. Isso pode mudar com o tempo, mas a Lei de Sweeney provavelmente se manterá no futuro próximo.
A computação de borda é freqüentemente destacada como uma estratégia de infraestrutura chave para o Metaverso. Especificamente, esse modelo envolve a implantação de supercomputadores em nós-chave da rede entre consumidores e servidores centrais distantes. A computação de borda é compatível e aditiva às duas escolas de pensamento acima, pois ajuda os usuários finais a suplementar sua computação local, ao mesmo tempo que minimiza a latência baseada na rede e o risco de congestionamento da rede.
O valor aplicado desta abordagem permanece incerto. O xCloud da Microsoft, por exemplo, opera a partir de datacenters padrão do Azure, em vez de borda. Isso provavelmente se deve ao problema de utilização do serviço em nuvem mencionado anteriormente — quanto mais centros de ponta você opera, piores são os problemas de utilização. A maioria dos serviços ao consumidor que usa computação de ponta, como o Netflix, apenas a usa como um disco rígido de ponta que armazena arquivos mais perto do usuário.
O fundador e CEO da Cloudflare, Matthew Prince, argumentou que a oportunidade para computação de ponta está em conformidade. À medida que a Internet se torna mais fragmentada devido a regulamentações governamentais que exigem o processamento local dos dados do usuário, as empresas não terão escolha a não ser localizar o armazenamento e o manuseio desses dados mais perto do usuário. É provável que seja o mesmo no metaverso; os requisitos do governo (seja GDPR ou CCPA) só tendem a se tornar mais onerosos com o tempo, como já tem sido o caso na China e na Rússia.
E embora o Google seja um grande adepto da computação de ponta, a Apple acredita que o modo de computação “de ponta” real no futuro serão os telefones celulares cada vez mais poderosos em nosso bolso, pois eles carregarão a maior parte do fardo para os outros dispositivos ao nosso redor, como relógios e óculos inteligentes.
Mas mesmo se melhorarmos o poder de computação dos dispositivos de consumo, movermos mais poder de computação empresarial para mais perto de tais consumidores e construirmos uma infraestrutura mais centralizada, ainda provavelmente ficaremos aquém.
Aqui está um exemplo que me chocou no início deste ano. De dezembro de 2020 a março de 2021, Genvid Technologies (Divulgação: empresa de portfólio), operou seu primeiro grande ‘MILE’ (ou Massively Interactive Live Event ) no Facebook Watch . Este MILE, Rival Peak, era uma espécie de American Idol x LOST x Big Brother virtualizado, uma simulação de 13 semanas, 24/7, de 13 competidores de IA presos em um noroeste do Pacífico fictício. Embora nenhum personagem fosse controlado individualmente e nenhum visualizador fosse um personagem individual, dezenas de milhares de visualizadores simultâneos foram capazes de afetar a simulação em tempo real — resolvendo quebra-cabeças para ajudar os competidores, escolhendo o que eles poderiam fazer e até mesmo influenciando quem sobreviveria e foi expulso. Rival Peak nunca poderia ter operado em um dispositivo de consumidor (seu alto CCU funcionou apesar da latência porque foi projetado para interações de baixa latência). Na verdade, quase não funcionava na AWS. Com oito ambientes (produção, backup, teste, controle de qualidade e desenvolvimento), cada um dos quais era suportado por mais de uma dúzia de GPUs e centenas de outras CPUs, Rival Peak uma vez ficou sem servidores GPU na AWS e, durante o teste, rotineiramente esgotou os servidores spot disponíveis.
Como não havia jogadores específicos (muito menos um ‘jogador um’), Rival Peak não se encaixa na definição instintiva do Metaverso. No entanto, a operação de um mundo virtual persistente e interminável que suporta interações ilimitadas, cada uma com consequências duradouras, está tão perto do estado final do Metaverso quanto qualquer outro. E mesmo em sua forma nascente, e sem exigir processamento significativo do lado do consumidor, estava ficando sem computação.
Imagine o que é necessário para a visão da Nvidia de um mundo de espelhos interconectado. Ou o tipo de simulação necessária para mapear toda a geometria de uma cidade e, em seguida, ajustar tudo, desde semáforos a ondas de rádio 5G, a fim de otimizar o fluxo de pessoas e informações em tempo real. Apenas para a MILE do próximo ano (ainda não anunciada), a Genvid exigirá 200% mais GPUs e CPUs.
Computação Descentralizada
A necessidade insaciável de processamento — idealmente localizado o mais próximo possível do usuário, mas mesmo perto de farms de servidores industriais — invariavelmente inspira noções de computação descentralizada. Com tantos dispositivos poderosos e frequentemente inativos nas casas e nas mãos dos consumidores, parece inevitável que desenvolvamos sistemas para utilizá-los com eficácia. Culturalmente, pelo menos, essa ideia já é bem compreendida. Qualquer pessoa que instalar painéis solares em sua casa pode vender o excesso de energia para sua rede local (e, indiretamente, para seu vizinho). Elon Musk apregoa um futuro em que o seu Tesla lhe renderá o aluguel como um carro autônomo quando não estiver em uso, em vez de apenas ficar estacionado em sua garagem por 99% de sua vida útil.
Havia um item engraçado na minha lista de tarefas em 1998, quando lançamos o primeiro jogo Unreal . Era para permitir que os servidores de jogo conversassem entre si para que pudéssemos ter um número ilimitado de jogadores em uma única sessão de jogo — e parece que ainda está em nossa lista de desejos. A questão de saber se você pode construir um jogo que muitos milhões de jogadores possam jogar, todos em um mundo compartilhado, juntos, é um desafio realmente interessante para a indústria de jogos agora. — Tim Sweeney (2019)
Na verdade, já na década de 1990, surgiram programas para computação distribuída usando hardware de consumo diário. Os exemplos incluem o SETI @ HOME de Berkeley , em que os consumidores voluntariamente usam seus computadores domésticos para pesquisar vida alienígena. Mas os conceitos de blockchain mais recentes, incluindo contratos inteligentes e tokens, fornecem um modelo econômico para esse compartilhamento. Nessa concepção, proprietários de CPUs e GPUs subutilizadas seriam ‘pagos’ em alguma criptomoeda pelo uso de seus recursos de processamento, talvez por usuários localizados ‘próximos’ a eles na topologia de rede. Pode até haver um leilão ao vivo para acesso a esses recursos, tanto aqueles com lances de ‘empregos’ para acesso, ou aqueles com lances de capacidade em empregos.
SETI @ HOME
Um exemplo desse mecanismo é a Rede de Renderização da OTOY. Como o primeiro raytracer imparcial que utilizou completamente a GPU, a Octane Render foi pioneira em tempos de resposta que tornaram possível modificar cenas em tempo real. Mas para que seus usuários — que incluíam estúdios de efeitos, artistas, animadores, designers, arquitetos e engenheiros — aproveitassem esses recursos inovadores, eles precisavam de acesso a poderosos recursos de processamento em tempo real. A OTOY teve a ideia de explorar uma rede de GPUs ociosas criando a rede RNDR baseada em Ethereum e o token. Como alternativa aos caros provedores de nuvem, os clientes enviam tarefas de renderização para uma rede de computadores, pagando seus proprietários usando o token. Todas as negociações e contratos entre as partes são tratados pelo protocolo em segundos, nenhum dos lados sabendo a identidade ou as especificações da tarefa que está sendo executada.
Você chega à conclusão de que o blockchain é, na verdade, um mecanismo geral para executar programas, armazenar dados e realizar transações de forma verificável. É um superconjunto de tudo o que existe na computação. Com o tempo, passaremos a considerá-lo um computador distribuído e executado um bilhão de vezes mais rápido do que o computador que temos em nossos desktops, porque é a combinação do computador de todos. — Tim Sweeney (2017)
Esse mercado poderia fornecer algumas das enormes quantidades de capacidade de processamento que serão exigidas pelo Metaverso? Imagine, enquanto você navega em espaços imersivos, sua conta continuamente licitando as tarefas de computação necessárias para dispositivos móveis mantidos, mas não utilizados por pessoas perto de você, talvez pessoas andando na rua ao seu lado, a fim de renderizar ou animar as experiências que você encontra. É claro que, mais tarde, quando você não estiver usando seus próprios dispositivos, estará ganhando tokens à medida que eles retribuem o favor. Os defensores desse conceito de cripto-troca o veem como uma característica inevitável de todos os futuros microchips. Cada computador, não importa o quão pequeno seja, seria projetado para estar sempre leiloando quaisquer ciclos sobressalentes.
“Blockchain vai ficar aqui por muito tempo e será uma nova forma fundamental de computação”. — Jensen Huang (2018)
Originalmente escrito por: Matthew Ball