Tecnologia

NVIDIA anuncia RTX 4090 e 80 com arquitetura Ada Lovelace

Durante a conferência GTC 2022, a NVIDIA oficializou sua nova geração de placas de vídeo, apresentando ao público dois modelos com especificações de alto nível: GeForce RTX 4090 e RTX 4080. Ambas trazem a nova arquitetura Ada Lovelace e chegam aos consumidores para “oferecer grandes saltos geracionais em desempenho e eficiência”, segundo a própria fabricante.

Arquitetura Ada Lovelace

A nova arquitetura da NVIDIA leva o nome da matemática e escritora inglesa Augusta Ada Byron King, atualmente conhecida apenas como Ada Lovelace, que em 1843 criou o primeiro algoritmo capaz de ser lido e processado por uma máquina.

Na semana passada, a empresa chegou a publicar um pequeno teaser em sua conta do Twitter confirmando o nome da arquitetura e mostrando o diagrama responsável por alterar o rumo da computação.

DLSS 3

Com a chegada das novas GPUs, a NVIDIA também apresentou a próxima versão da sua tecnologia de upscaling: a Deep Learning Super Sampling. Segundo Jensen Huang, CEO da empresa, o DLSS 3 pode aumentar o desempenho em até quatro vezes quando comparado a renderização comum.

Essa tecnologia aumenta a taxas de quadros por segundo (fps) na mesma resolução ou exibe uma aparência de resolução mais alta sem comprometer o desempenho. A fabricante americana explica que os jogos são executando internamente em uma resolução mais baixa antes da GPU aplicar técnicas de aprendizado de máquina para escaloná-los para resoluções superiores. Por exemplo, a experiência chega ao jogador em 4K, mas internamente o game está rodando apenas em Full HD.

Dlss 3
DLSS 3 melhora a qualidade e taxa de fps (Imagem: Divulgação)

Além de aprimorar o desempenho de jogos limitados por GPU, a NVIDIA afirma que o DLSS 3 também consegue impulsionar em até 100% títulos limitados por CPU. Outra novidade desse padrão é o NVIDIA Reflex, que reduz a latência e gera novos quadros para garantir um aumento de desempenho. Por fim, a empresa ainda inseriu o recurso Optical Flow Accelerator para rastrear objetos em vez de pixels e melhorar a compressão de elementos gráficos.

Para demonstrar toda a capacidade da tecnologia, a companhia publicou um vídeo no YouTube mostrando como o DLSS 3 aumentou a taxa de quadros do Cyberpunk 2077, saindo de menos de 30 fps para cerca de 100 fps. Isso representa uma grande evolução quando comparado a versão anterior, que manteve o desempenho em cerca de 60 fps.

A NVIDIA revelou que o DLSS 3 será exclusivo das GPUs da linha RTX 40. A empresa também disse que mais de 35 jogos e softwares terão suporte a essa tecnologia, com os primeiros títulos chegando ao mercado em outubro deste ano. Confira abaixo a lista completa:

  • A Plague Tale: Requiem;
  • Atomic Heart;
  • Black Myth: Wukong;
  • Bright Memory: Infinite;
  • Chernobylite;
  • Conqueror’s Blade;
  • Cyberpunk 2077;
  • Dakar Rally;
  • Deliver Us Mars;
  • Destroy All Humans! 2 – Reprobed;
  • Dying Light 2 Stay Human;
  • F1 22;
  • F.I.S.T.: Forged In Shadow Torch;
  • Frostbite Engine;
  • HITMAN 3;
  • Hogwarts Legacy;
  • ICARUS;
  • Jurassic World Evolution 2;
  • Justice;
  • Loopmancer;
  • Warhammer 40,000: Darktide;
  • Marauders;
  • Microsoft Flight Simulator;
  • Midnight Ghost Hunt;
  • Mount & Blade II: Bannerlord;
  • Naraka Bladepoint;
  • NVIDIA Omniverse;
  • NVIDIA Racer RTX;
  • PERISH;
  • Portal With RTX;
  • Ripout;
  • S.T.A.L.K.E.R 2: Heart of Chornobyl;
  • Scathe;
  • Sword and Fairy 7;
  • SYNCED;
  • The Lord of the Rings: Gollum;
  • The Witcher 3: Wild Hunt;
  • THRONE AND LIBERTY;
  • Tower of Fantasy;
  • Unity;
  • Unreal Engine 4 & 5.

GPUs RTX 4090 e 4080

Jensen huang, ceo da nvidia, segurando uma rtx 4090
Jensen Huang, CEO da NVIDIA, segurando uma RTX 4090 (Imagem: Divulgação)

A NVIDIA não poupou esforços para classificar a RTX 4090 como a GPU “mais rápida do mundo”. Em jogos com suporte a Ray Tracing e utilizando o DLSS 3, esse componente é até quatro vezes mais rápido que a RTX 3090 Ti com DLSS 2, além de ser duas vezes mais rápido em jogos atuais e manter o consumo de energia em 450 watts.

No quesito especificações, a RTX 4090 oferece 76 bilhões de transistores, 16.384 núcleos CUDA, 24 GB de memória VRAM GDDR6X, 96 MB de cache L2 e 384-bit de interface. A RTX 4080 é mais “modesta” e entrega duas versões: a primeira com 9.728 núcleos CUDA, 16 GB de memória VRAM GDDR6X, 64 MB de cache L2 e 224 ROPs, sendo duas vezes mais rápida em jogos atuais que a RTX 3080 Ti. O segundo modelo traz 12 GB de memória VRAM GDDR6X, 7.680 núcleos CUDA e TDP de 285W.

Quanto aos preços, a 4090 estará disponível no mercado internacional em 12 de outubro a partir de US$ 1.599, enquanto a 4080 chega em novembro custando US$ 1.199 na versão mais potente e US$ 899 na mais básica.

GPU RTX 6000

Rtx 6000
RTX 6000 (Imagem: Divulgação)

O último anúncio da NVIDIA foi a RTX 6000, novo modelo para workstations baseado na arquitetura Ada Lovelace. Essa CPU é dedicada a gráficos neurais e simulações avançadas de mundos virtuais, sendo ideal para a criação de conteúdos e ferramentas para o metaverso utilizando o NVIDIA Omniverse Enterprise.

Graças a um novo sistema de renderização, inteligência artificial e 48 GB de memória GDDR6, a fabricante garante que a RTX 6000 permite criar conteúdos detalhados, desenvolver simulações complexas e fornecer os materiais necessários para a construção de mundos virtuais.

Algumas características da GPU incluem:

  • Núcleos RT de terceira geração com taxa de transferência até duas vezes mais rápida que a geração anterior;
  • Núcleos Cores de quarta geração com desempenho de IA até duas vezes mais rápido que a geração anterior, incluindo suporte ao formato de dados FP8;
  • Núcleos CUDA até duas vezes mais rápidos na taxa de transferência de pontos flutuantes de precisão;
  • Suporte ao software de GPU virtual (vGPU) da NVIDIA para múltiplas estações de trabalho virtuais de alto desempenho;
  • Codificação de vídeo três vezes mais rápido que a geração anterior.

A RTX 6000 estará disponível a partir de dezembro para fabricantes e parceiros de distribuição globais. Até o momento, não há informações sobre o preço oficial.

Veja também:

Como usar o NVIDIA GeForce NOW.

Fontes: NVIDIA [1 e 2].