Hardware e o Metaverso
A venda e suporte de tecnologias físicas e dispositivos usados para acessar, interagir ou desenvolver o Metaverso
O conteúdo a baixo não está limitado a, hardware voltado para o consumidor (como fones de ouvido VR, telefones celulares e luvas táteis), bem como hardware corporativo (como aqueles usados para operar ou criar ambientes virtuais ou baseados em AR, por exemplo, câmeras industriais , sistemas de projeção e rastreamento e sensores de varredura). Esta categoria não inclui hardware específico de computação, como chips GPU e servidores, bem como hardware específico de rede, como cabeamento de fibra óptica ou chipsets sem fio. ”
Hardware de consumidor
Todos os anos, o hardware do consumidor se beneficia de sensores melhores e mais capazes, bateria mais longa, haptics mais sofisticado / diverso, telas mais ricas, câmeras mais nítidas, etc. Também vemos um número cada vez maior de dispositivos inteligentes, como relógios, headsets de RV ( e em breve, óculos AR). Todos esses avanços aprimoram e estendem a imersão do usuário, embora o software forneça a experiência real ou ‘mágica’.
Considere, como um exemplo limitado, aplicativos de avatar ao vivo, como Bitmoji, Animoji e Snapchat AR. Eles dependem de CPUs / GPUs razoavelmente capazes (consulte a Seção 3), bem como de software sofisticado. Mas eles também exigem e são enriquecidos por uma poderosa câmera de rastreamento facial e hardware de sensor que continua a melhorar. Os modelos mais recentes do iPhone agora rastreiam 30.000 pontos em seu rosto por meio de sensores infravermelhos. Embora seja mais comumente usado para Face ID, agora pode ser conectado a aplicativos como o aplicativo Live Link Face da Epic Games, permitindo que qualquer consumidor crie (e transmita) um avatar de alta fidelidade baseado em Unreal Engine em tempo real . É claro que o próximo passo da Epic será usar essa funcionalidade para mapear ao vivo o rosto de um jogador do Fortnite em seu personagem no jogo.
Enquanto isso, o Object Capture da Apple permite aos usuários criar objetos virtuais de alta fidelidade usando fotos de seu iPhone padrão em questão de minutos. Esses objetos podem então ser transplantados para outros ambientes virtuais, reduzindo assim o custo e aumentando a fidelidade dos produtos sintéticos, ou sobrepostos em ambientes reais para fins de arte, design e outras experiências de RA.
Muitos novos smartphones, incluindo o iPhone 11 e o iPhone 12, apresentam novos chips de banda ultralarga que emitem 500 milhões de pulsos RADAR por segundo e receptores que processam as informações de retorno. Isso permite que os smartphones criem mapas RADAR extensos de tudo, de sua casa ao escritório e a rua pela qual você está andando — e o posicionem nesses mapas, em relação a outros dispositivos locais, até alguns centímetros. Isso significa que a porta de sua casa pode desbloquear quando você se aproxima pelo lado de fora, mas permanece fechada por dentro. E usando um mapa RADAR ao vivo, você poderá navegar em grande parte da sua casa sem precisar remover seu fone de ouvido de realidade virtual.
É surpreendente que tudo isso seja possível por meio de hardware padrão para o consumidor. E o papel crescente dessa funcionalidade em nossas vidas diárias explica por que o iPhone foi capaz de aumentar seu preço médio de venda de cerca de US $ 450 em 2007 para mais de US $ 750 em 2021, em vez de apenas oferecer maior capacidade pelo mesmo preço
Os fones de ouvido XR são outro grande exemplo do progresso e das necessidades excepcionais de hardware. O primeiro consumidor Oculus (2016) tinha uma resolução de 1080 × 1200 por olho, enquanto o Oculus Quest 2, lançado quatro anos depois, tinha 1832 × 1920 por olho (aproximadamente equivalente a 4K). Palmer Luckey, um dos fundadores da Oculus, acredita que mais de duas vezes essa resolução é necessária para que a RV supere a pixelização e se torne um dispositivo comum. O Oculus Rift também atingiu o pico com uma taxa de atualização de 72 Hz, enquanto a edição mais recente atinge 90 Hz e até 120 Hz quando conectado a um PC de jogos via Oculus Link. Muitos acreditam que 120 Hz é o limite mínimo para evitar desorientação e náusea em alguns usuários. E, idealmente, isso seria alcançado sem a necessidade de um PC e um cabo para jogos.
Enquanto os humanos podem ver uma média de 210 °, a tela do HoloLens 2 da Microsoft cobre apenas 52 ° (acima de 34 °). Os próximos óculos da Snap são de apenas 26,3 °. Para decolar, provavelmente precisamos de uma cobertura muito mais ampla. E esses são principalmente desafios de hardware, não de software. Além do mais, precisamos fazer esses avanços ao mesmo tempo em que aprimoramos a qualidade de outro hardware dentro de um wearable (por exemplo, alto-falantes, processadores, baterias) — e, idealmente, reduzi-los também.
Outro exemplo é o Projeto Starline do Google, um estande baseado em hardware projetado para fazer as conversas de vídeo parecerem como se você estivesse na mesma sala que o outro participante, alimentado por uma dúzia de sensores de profundidade e câmeras, bem como um multiponto baseado em tecido exibição de campo de luz dimensional e alto-falantes de áudio espacial. Isso é trazido à vida usando processamento e compactação de dados volumétricos e, em seguida, fornecido via webRTC, mas o hardware é fundamental para capturar e apresentar um nível de detalhe que ‘parece real’.
Hardware Não Consumidor
Dado o que é possível com dispositivos de nível de consumidor, não é surpresa que o hardware industrial / corporativo com múltiplos de preço e tamanho impressionará. A Leica agora vende câmeras fotogramétricas de US $ 20.000 com até 360.000 “pontos de ajuste de varredura a laser por segundo”, projetadas para capturar shoppings, prédios e casas inteiros com maior clareza e detalhes do que uma pessoa média jamais veria pessoalmente. O Quixel da Epic Games, por sua vez, usa câmeras proprietárias para gerar “MegaScans” ambientais compostas por dezenas de bilhões de triângulos com pixels precisos.
Esses dispositivos tornam mais fácil e barato para as empresas produzir ‘mundos-espelho’ de alta qualidade ou ‘gêmeos digitais’ de espaços físicos, bem como usar varreduras do mundo real para produzir fantasias de maior qualidade e menos caras. Quinze anos atrás, ficamos impressionados com a capacidade do Google de capturar (e financiar) imagens 2D em 360 ° de todas as ruas do mundo. Hoje, muitas empresas podem comprar câmeras e scanners LIDAR para construir reproduções fotogramétricas 3D totalmente imersivas de qualquer coisa na Terra.
Essas câmeras se tornam particularmente interessantes quando vão além da captura e virtualização de imagens estáticas, para a renderização e atualização em tempo real do mundo real. Hoje, por exemplo, as câmeras em uma loja de varejo Amazon Go rastrearão dezenas de consumidores ao mesmo tempo por meio de código. No futuro, esse tipo de sistema de rastreamento será usado para reproduzir esses usuários, em tempo real, em um mundo de espelhos virtual. Tecnologias como a Starline do Google permitirão que trabalhadores remotos estejam “presentes” na loja (ou em um museu, ou DMV, ou um cassino) de uma espécie de “call center Metaverso” offshore — ou talvez em casa na frente de seus iPhones.
Quando você for à Disneylândia, poderá ver representações virtuais (ou mesmo robôs) de seus amigos em casa e colaborar com eles para derrotar Ultron ou coletar as Pedras do Infinito. Essas experiências exigem muito mais do que hardware — mas são restritas, habilitadas e realizadas por meio dele.
Originalmente escrito por Matthew Ball