AnálisesDestaque

Gigabyte Nvidia GTX660 TI OC 3GB

bx

APRESENTAÇÃO

Nvidia Kepler

Depois de a Nvidia ter lançado o Kepler com a GTX680 como topo de gama, eis que as marcas começam a apresentar as suas variantes. Desta vez apresentamos uma placa da Gigabyte, a Nvidia GTX660 TI OC 3GB que é uma placa, como podemos ver pela sua nomenclatura que tem 3GB de memória e overclocking de fábrica, esperamos assim que tenha uma performance à altura da marca e das especificações apresentadas. Estas, melhoram um produto já de si  muito bom e transformam-no num ainda melhor.
Para isso, mantém as novas tecnologias utilizadas adicionam-lhe mais memória, melhores sistemas de refrigeração e aumentam as velocidades de relógio. Com estas alterações pretende melhorar a performance e por consequência a suavidade de cada jogo e a riqueza da experiência em geral.

De seguida podemos ler algumas considerações relativamente à tecnologia utilizada nesta placa.

Eficiência Energética

O Nvidia Kepler introduz duas mudanças fundamentais para melhorar significativamente a eficiência da GPU, foi completamente redesenhado o multiprocessador streaming, para um aumentar desempenho por watt e foi adicionado um recurso chamado GPU Boost, que aumenta dinamicamente a velocidade de relógio, o que permite melhorar o desempenho da placa gráfica. A nova SM (Streaming Multiprocessors) Kepler, denominada SMX (Extreme Streaming Multiprocessors), é uma mudança radical relativamente a projetos anteriores, a SMX elimina a multiplicação por 2 da arquitetura Fermi e usa a mesma velocidade base em todo o GPU.

Para equilibrar essa mudança, a SMX usa um design com 192 núcleos CUDA, e conta com um total de 1536 núcleos em todo o chip, no entanto o que mais proporcionou uma melhor eficiência energética é que a SMX tem o dobro do desempenho por watt relativamente à SM da Fermi, dito de outra forma, com um watt de potência, a SMX Kepler pode fazer o dobro da quantidade de trabalho do que faz o SM Fermi. O benefício dessa melhoria é mais evidente quando se liga uma GeForce GTX680, logo à partida precisamos de “apenas” dois cabos de alimentação de 6 pinos contra os da GTX580 que necessitava de um de 6 pinos e de um de 8. Isto acontece porque a GTX680 tem uma TDP de195 watts, em comparação com os 244 watts da GTX580.

GPU Boost

As GPUs eram projetadas para operar numa potência certa a este número é chamado de “Ponto de Design Térmico”, ou TDP. Para uma GPU high-end, o TDP tem sido normalmente de cerca de 250 watts. Este número pode ser interpretado da seguinte maneira: um cooler para este GPU pode remover 250 watts de calor, se este for além deste limite por um período prolongado de tempo, a GPU será forçada a baixar a sua velocidade de relógio para evitar o sobre aquecimento, o que isto significa também é, para obter o máximo desempenho, a GPU deve operar próximo do seu TDP, mas nunca superior a este. Na realidade, as GPUs raramente atingem o seu TDP máximo, mesmo a jogar até os jogos mais intensivos, isto é porque jogos diferentes consomem quantidades diferentes de energia e a TDP da GPU é medida usando o limite máximo. Jogos como o Battlefield 3 ou Crysis 2 consomem muito menos energia do que a classificação do TDP de um GPU, apenas alguns benchmarks sintéticos como o FurMark ou OCCT podem fazer chegar as GPUs ao seu limite de TDP.

A tecnologia GPUBoost vem fazer algumas alterações, em vez de correr o GPU a uma velocidade de relógio que se baseia no perfil da aplicação que corre, o GPUBoost ajusta automaticamente a velocidade de relógio com base na energia consumida pela aplicação em execução. Para correr o Battlefield 3 exemplo, em vez de correr sempre a 150 watts, o GPU Boost irá aumentar dinamicamente a velocidade do relógio e aproveitar a capacidade de processamento extra caso seja necessário. A coisa mais importante a compreender acerca da tecnologia GPU Boost, é que esta funciona através de monitorização em tempo real do hardware ao invés de perfis de aplicativos baseados no software que corre. Tal como um algoritmo, tenta descobrir qual é a frequência adequada ao GPU e a melhor tensão que este deve ter em tempo real, faz isso lendo uma série de dados, tais como temperatura da GPU, a utilização do hardware, e o consumo de energia.

Dependendo destas condições, irá aumentar a tensão e consequentemente extrair o desempenho máximo dentro do valor de energia disponível. Porque toda a operação é executada tendo em conta a monitorização do hardware em tempo real, a GPU Boost não requer perfis das aplicações, quando os novos jogos são lançados, mesmo se não se atualizarem as drivers o GPU Boost continua a funcionar. Para ajudar a perceber o ganho no desempenho, todas as GPUs Kepler com GPU Boost irão mostrar duas velocidades de relógio: o Default clock e o GPU Boost. Por exemplo, a GTX 680 tem um Default clock de 1006 MHz e um Boost de 1058 MHz, isto significa que em jogos mais pesados, o Default clock irá correr a 1006 MHz, mas a maior parte do tempo, provavelmente vai trabalhar entre 1006MHz e 1058 MHz, aproximando-se mais da velocidade mais alta.

Adaptive V-Sync

Apesar dos belos gráficos vistos em muitos dos jogos de hoje, ainda existem alguns artefactos altamente perturbadores que aparecem durante os jogos, o pior deles é a o que se pode denominar de “Ecrã Rasgado” este é facilmente observada em alguma ocasiões, quando o rato é movido de um lado para o outro, o resultado é que o monitor parece ter sido dividido em vários quadrados com um efeito de cintilação intensa. Este fenómeno tende a ser agravado quando a framerate é elevada uma vez que um grande número de quadrados está em ação num determinado momento, causando bandas múltiplas.

O V-Sync é o tradicional remédio para este problema, mas como muitos jogadores sabem este também tem os seus problemas. O principal problema com o V-Sync é que quando o framerate cai abaixo da taxa de refrescamento do monitor normalmente 60Hz, o framerate cai de forma desproporcional. Isso acontece porque as atualizações do monitor, em intervalos fixos e V-Sync força a GPU a esperar pela próxima atualização antes de atualizar o monitor com uma nova imagem. Isso resulta em stuttering quando existem quedas de framerate abaixo de 60fps, mesmo que apenas momentaneamente. Com as novas Drivers NVIDIA versão 3xx, é introduzida uma nova opção no painel de controlo chamado Adaptive V-Sync.

O Adaptive V-Sync combina os benefícios de V-Sync, minimizando o seu lado negativo, o V-Sync é ativado somente quando o framerate excede a taxa de atualização do monitor. Quando o framerate cai abaixo desta taxa, o V-Sync é automaticamente desativado, minimizando a stuttering em jogos.

 

FXAA: Anti-aliasing outra forma de anti-aliasing.

A correção para o serrilhado (aliasing) apresentado em certos jogos, é o anti-aliasing, mas o método atual de fazer anti-aliasing pesa muito nas framerates o que implica melhores placas gráficas e por consequência mais despesa. Para piorar a situação, a sua eficácia na remoção do “serrilhado” diminuiu em motores de jogo modernos. Quase todos os jogos fazem uso de uma forma de anti-aliasing chamado multi-amostra anti-aliasing (MSAA). O MSAA torna o ecrã com uma resolução muito alta, em seguida, pressionada amostras de imagem para reduzir o aparecimento de aliasing. O principal problema com isso é técnica é que ela requer uma enorme quantidade de memória de vídeo. Por exemplo, o MSAA 4x requer quatro vezes a memória de vídeo de renderização padrão, na prática, muitos jogadores são forçados a desactivar o MSAA, para manterem um desempenho razoável.

O FXAA é uma nova maneira de realizar anti-aliasing que é rápido, eficaz e otimizado para os mecanismos dos jogos modernos. Em vez de tornar tudo menos quatro vezes a resolução, o FXAA escolhe as arestas num quadro baseado em detecção de contraste de seguida, suaviza as bordas de alias com base em seu gradiente. Tudo isso é executado como um leve processamento shader. Comparado com o anti-aliasing 4xMSAA, o FXAA produz um efeito idêntico sem consumir memória adicional e funciona quase tão rápido como sem a suavização, o FXAA tem a vantagem de funcionar na geometria transparente, como por exemplo as folhagens e ajuda a reduzir o “shader aliasing” que muitas vezes aparece em materiais brilhantes. Enquanto o FXAA está disponível em apenas alguns jogos modernos, com a nova série de drivers 3xx, foi integrado no painel de controlo. Isto significa que vai ser possível habilitá-lo em centenas de jogos, até mesmo em títulos antigos que não suportam anti-aliasing.

Sem AA, 4xAA, FXAA

 

TXAA: Qualidade superior ao FXAA

Efeitos gerados por computador em filmes, gastam uma enorme quantidade de recursos em anti-aliasing. Para jogos que abordam a qualidade cinematográfica, os programadores precisavam de novas técnicas de anti-aliasing que permitisse melhorar a qualidade sem comprometer o desempenho. Com o novo chip Kepler, a NVIDIA inventou uma ainda maior qualidade modo de AA denominado TXAA que é projetado para ser integrado diretamente em motores de jogo. O TXAA combina o poder bruto de MSAA com filtros sofisticados semelhantes aos utilizados na indústria cinematográfica. O TXAA está disponível com dois modos: TXAA 1 e TXAA 2.

O modo TXAA 1 oferece qualidade visual em parte com 8xMSAA com o desempenho semelhante ao 2xMSAA. 2. O modo TXAA 2 oferece qualidade de imagem que é superior a 8xMSAA, com desempenho comparável ao 4xMSAA.

Tal como a tecnologia FXAA, também a tecnologia TXAA será integrado diretamente no motor de jogo, os seguintes jogos, motores, e os developers assumiram o compromisso de oferecer apoio TXAA: MechWarrior Online, Segredo do Mundo, Eve Online, Borderlands 2, Unreal Engine 4, BitSquid, Slant Six Games, e Crytek, uma boa notícia para os gamers.

INDICE

1. Apresentação

2. A placa

3. Software

4. BenchMarks

5. Unigine

6. FutureMark

7. Notas Adicionais e Conclusão

1 2 3 4 5 6 7Página seguinte

Artigos Relacionados

Botão Voltar ao Topo