기술의 발전은 거침없고 그래픽 하드웨어보다 더 사실적인 곳은 없습니다. 매년 카드는 훨씬 더 빨라지고 멋진 그래픽 트릭을 위한 완전히 새로운 두문자어 세트를 가져옵니다.
PC 게임의 시각적 설정을 보면 MSAA, FXAA, SMAA 및 WWJD 와 같은 맛있는 너겟이 포함 된 단어 샐러드(word salad) 가 있습니다 . 좋아요, 아마도 마지막이 아닐 수도 있습니다.
새로운 Nvidia GeForce RTX(Nvidia GeForce RTX) 카드 의 운 좋은 소유자라면 이제 DLSS 라는 것을 활성화하도록 선택할 수도 있습니다 . Deep Learning Super Sampling 의 약자 이며 Nvidia RTX 카드 에서 볼 수 있는 차세대 하드웨어(generation hardware) 기능 의 큰 부분입니다 .
작성 당시에는 다음 카드에만 DLSS 를 실행하는 데 필요한 하드웨어가 있습니다 .
- RTX 2060
- RTX 2060 슈퍼
- RTX 2070
- RTX 2070 슈퍼
- RTX 2080
- RTX 2080 슈퍼
- RTX 2080 Ti
문제의 특정 하드웨어를 " 텐서 (Tensor)" 코어(” core) 라고 하며, 각 모델에는 이러한 특수 프로세서의 수가 다릅니다.
Tensor 코어는 DLSS(DLSS) 가 그 예인 기계 학습 작업을 가속화하도록 설계되었습니다 . DLSS 를 (DLSS)사용하지(t use) 않으면 카드의 해당 부분이 유휴 상태로 유지됩니다. 이것은 DLSS 를 사용할 수 있지만 꺼져 있는 경우 반짝이는 새 GPU 의 전체 용량을 사용하지 않는다는 것을 의미합니다.(GPU)
그것보다 더 많은 것이 있습니다. DLSS 가 테이블에 가져다 주는 가치를 이해하려면 몇 가지 관련 개념으로 간략히 살펴봐야 합니다.
내부 해상도 및 확장에 대한 빠른 우회(A Quick Detour Into Internal Resolutions & Upscaling)
최신 TV 및 모니터(Modern TVs and monitors) 에는 "기본" 해상도(resolution) 가 있습니다. 이것은 단순히 화면에 특정 수의 물리적 픽셀이 있음을 의미합니다. 해당 화면에 표시하는 이미지가 정확한 기본 해상도와 다른 경우, 그에 맞게 "확대"하거나 "축소"해야 합니다.
따라서 예를 들어 HD 이미지를 4K 디스플레이(4K display) 로 출력하면 상당히 고르지 않고 들쭉날쭉하게 보일 것입니다. 디지털 사진을 너무 많이 확대한 것처럼 말입니다. 그러나 실제로 HD 비디오(HD video) 는 기본 4K 푸티지보다 약간 덜 선명하더라도 4K TV에서 잘 보입니다. TV에는 저해상도 이미지를 처리하고 필터링하여 허용 가능한 것처럼 보이는 "업스케일러"라는 하드웨어가 있기 때문입니다.
문제는 업스케일링 하드웨어의 품질이 디스플레이 브랜드와 모델 간에 크게 다르다는 것입니다. 이것이 GPU(GPUs) 가 종종 자체 확장 기술 과 함께 제공 (scaling technology)되는(Which) 이유 입니다.
4K 디스플레이로 출력하도록 설계된 "프로" 콘솔은 디스플레이 업스케일링이 전혀 발생하지 않도록 기본 4K 이미지를 제공합니다. 이것은 게임 개발자가 최종 이미지 품질(image quality) 을 완벽하게 제어할 수 있음을 의미합니다 .
그러나 대부분의 콘솔 게임은 기본 4K 해상도로 렌더링되지 않습니다. 그들 은 GPU 에 덜 스트레스 를 가하는 낮은 " 내부 " 해상도(” resolution) 를 가지고 있습니다 . 그런 다음 해당 이미지는 콘솔의 내부 크기 조정 기술 을 사용하여 (scaling technology)고해상도 화면(high-resolution screen) 에서 가능한 한 잘 보이도록 확대됩니다 .
실제로 DLSS 는 (DLSS)PC 게임(PC game) 을 기본 해상도보다 낮게 렌더링한 다음 DLSS 기술(DLSS technology) 을 사용하여 연결된 디스플레이에 맞게 확장 하는 정교한 방법입니다 . 이론상 이는 성능이 크게 향상됩니다.
4K 콘솔에서 일어나는 일과 매우 흡사하게 들리지만, DLSS 내부 에서는 정말 특별한 것입니다. 모두 "딥 러닝" 덕분입니다.
"딥 러닝" 비트란 무엇입니까?(What’s The “Deep Learning” Bit About?)
딥 러닝은 시뮬레이션된 신경망을 사용하는 기계 학습 기술 입니다. (machine learning technique)다시 말해, 뇌의 뉴런 이 복잡한 문제에 대한 솔루션을 배우고 생성하는 방법에 대한 디지털 근사값입니다.(brain learn)
무엇보다도 컴퓨터가 얼굴을 인식하고 로봇이 주변 세계를 이해하고 탐색할 수 있도록 하는 기술입니다. 최근 급증하는 딥페이크의 원인이기도 합니다. 그것이 DLSS 의 비밀 소스입니다 .
신경망은 기본적으로 어떤 것이 되어야 하는지에 대한 실제 예를 보여주는 "훈련"이 필요합니다. 그물에 얼굴을 인식하는 방법을 가르치고 싶다면 수백만 개의 얼굴을 보여주고 전형적인 얼굴을 구성하는 특징과 패턴을 배우게 합니다. 수업을 제대로 배우면 얼굴이 포함된 이미지를 보여줄 수 있으며 즉시 선택합니다.
Nvidia 가 한 일은 DLSS 를 지원하는 게임의 믿을 수 없을 정도로 고해상도 이미지로 딥 러닝 소프트웨어(learning software) 를 훈련시키는 것 입니다. 신경망은 슈퍼컴퓨터 수준의 그래픽 성능을 사용하여 렌더링할 때 게임이 "어떤 모습이어야 하는지"를 학습합니다.
그런 다음 더 낮은 내부 해상도 프레임(resolution frame) 을 사용하고 더 나은 단어가 없기 때문에 귀하의 컴퓨터보다 훨씬 더 강력한 컴퓨터가 장면을 렌더링했다면 어떤 모습일지 "상상"합니다. 그것이 당신에게 약간 흑마법처럼 들린다면 당신은 혼자가 아닙니다!
DLSS를 사용하는 경우(When To Use DLSS)
우선 DLSS를 지원하는 게임에서만 (First)DLSS 를 사용할 수 있습니다 . 고맙게도 빠르게 늘어나고 있는 목록입니다. 또한 각 타이틀에는 최소 해상도로 렌더링하는 것과 같은 DLSS(DLSS) 에 대한 자체 요구 사항이 있습니다 . 왜냐하면 이것이 신경망이 훈련된 것이기 때문입니다.
그러나 Nvidia 의 뛰어난 두뇌는 (Nvidia doesn)학습(stop learning) 을 멈추지 않으며 카드의 DLSS 기능(DLSS feature) 은 계속 업데이트되어 타이틀별 지원 및 품질(support and quality) 을 확장합니다 .
게임에서 DLSS 를 사용해야 하는지 여부를 파악하는 가장 좋은 방법 은 결과를 살펴보는 것입니다. 기존의 업스케일링 또는 앤티 앨리어싱과 비교하여 어느 것이 더 즐거운지 확인하십시오. 성능 또한 중요한 결정 요소(deciding factor) 입니다. 초당 60프레임을 목표로 하지만 거기에 도달할 수 없는 경우 DLSS 가 좋은 선택입니다.
그러나 높은 프레임 속도를 얻는 경우 DLSS 는 실제로 속도를 늦출 수 있습니다. 텐서 코어가 각 프레임을 처리하는 데 일정한 시간이 필요하기 때문입니다. 지금 당장은 높은 프레임 속도 재생(frame rate play) 을 위해 충분히 빠르게 할 수 없습니다 .
기본적으로 DLSS 는 초당 약 60프레임 의 목표 프레임 속도 로 (target frame rate)고해상도 디스플레이(high-resolution display) (예: 4K, 울트라와이드 또는 1440p 해상도)를 사용할 때 가장 유용합니다 . RTX 카드 의 다른 주요 트릭(party trick) 인 레이(– ray) 트레이싱 을 활성화할 때도 매우 유용 합니다. DLSS 는 광선 추적 의 성능 손실(performance loss) 을 아주 잘 상쇄할 수 있으며 최종 결과(end result) 는 때때로 장관입니다.
이것이 DLSS(DLSS) 사용 여부 를 결정하기 전에 알아야 할 최소한의 정보 입니다. 이 기술은 빠르게 변화하고 있으므로 오늘 결과가 마음에 들지 않으면 몇 개월 후에 다시 오면 결국 넋을 잃을 수도 있다는 점을 기억하십시오 .(Just)
What Is DLSS and Should You Use It In Games
The march of technology is inexorable and nowhеre is this more true than with graphics hardware. Every year cards get significantly faster and bring a whole nеw set of acronyms for fancy graphical tricks.
Looking at the visual settings for PC games, you’ll encounter a word salad that contains such tasty nuggets as MSAA, FXAA, SMAA and WWJD. OK, maybe not that last one.
If you are the lucky owner of a new Nvidia GeForce RTX card, you can now also choose to enable something called DLSS. It’s short for Deep Learning Super Sampling and is a big part of the next generation hardware features found in Nvidia RTX cards.
At the time of writing, only these cards have the required hardware to run DLSS:
- RTX 2060
- RTX 2060 Super
- RTX 2070
- RTX 2070 Super
- RTX 2080
- RTX 2080 Super
- RTX 2080 Ti
The specific hardware in question is referred to as a “Tensor” core, with each model having a different number of these specialized processors.
Tensor cores are designed to accelerate machine learning tasks, which DLSS is an example of. If you don’t use DLSS, that part of the card remains idle. This means you aren’t using the full capacity of your shiny new GPU if DLSS is available, but remains off.
There’s more to it than that though.To understand what value DLSS brings to the table, we have to digress briefly into a few related concepts.
A Quick Detour Into Internal Resolutions & Upscaling
Modern TVs and monitors have what’s known as a “native” resolution. This simply means that the screen has a specific number of physical pixels. If the image you are displaying on that screen differs from the exact native resolution, it has to be “scaled” up or down to make it fit.
So if you output an HD image to a 4K display, for example, it’s going to look quite blocky and jagged. Just as if you’ve zoomed a digital photo in too far. In practice however, HD video looks just fine on a 4K TV, if perhaps a little less sharp than native 4K footage. That’s because the TV has a piece of hardware known as an “upscaler” that processes and filters the lower-resolution image to look acceptable.
The problem is that the quality of the upscaling hardware varies wildly between display brands and models. Which is why GPUs often come with their own scaling technology.
The “pro” consoles that are designed to output to a 4K display present it with a native 4K image, so that no display upscaling happens at all. This means the developers of games have complete control of the final image quality.
However, most console games do not render at a native 4K resolution. They have a lower “internal” resolution, which puts less stress on the GPU. That image is then scaled up to look as good as possible on the high-resolution screen using the console’s internal scaling technology.
In effect, DLSS is a sophisticated method that renders a PC game at a lower than native resolution and then uses the DLSS technology to upscale it for the connected display. In theory this leads to a significant boost in performance.
While that sounds a lot like what’s happening on 4K consoles, under the hood DLSS is really something special. All thanks to “deep learning”.
What’s The “Deep Learning” Bit About?
Deep learning is a machine learning technique that uses a simulated neural net. In other words, a digital approximation of how the neurons in your brain learn and create solutions to complex problems.
It’s the technology that, among other things, allows computers to recognize faces and lets robots understand and navigate the world around them. It’s also responsible for the recent spates of deepfakes. That’s the secret sauce of DLSS.
Neural networks require “training” which is basically showing the net examples of what something should be like. If you want to teach the net how to recognize a face, you show it millions of faces, letting it learn the features and patterns that make up a typical face. If it learns the lesson properly, you can show it any image with a face in it, and it will pick it out instantly.
What Nvidia have done is to train their deep learning software on incredibly high-resolution images from the games that support DLSS. The neural network learns what the game “should” look like when rendered using supercomputer-level graphics performance.
It then takes that lower internal resolution frame and, for lack of a better word, “imagines” what it would have looked like if a much, much more powerful computer than yours had rendered the scene. If that sounds a little like black magic to you well, you’re not alone!
When To Use DLSS
First of all, you can only use DLSS in games that support it, which is a list that’s growing quickly, thankfully. Each title also has its own requirements for DLSS, such as rendering at a minimum resolution, because that’s what the neural net has been trained on.
However, the big brain at Nvidia doesn’t stop learning and the DLSS feature on your card will keep getting updates, expanding per-title support and quality.
The best way to figure out if you should use DLSS in your games is to eyeball the result. Compare it to traditional upscaling or anti-aliasing to see which is more pleasant. Performance is also an important deciding factor. If you are targeting 60 frames per second, but can’t get there, DLSS is a good choice.
If you are getting high frame rates however, DLSS can actually slow things down. That’s because the tensor cores need a fixed amount of time to process each frame. Right now they can’t do it quickly enough for high frame rate play.
Essentially, DLSS is most useful when using a high-resolution display (e.g. 4K, ultrawide or 1440p resolutions) with a target frame rate at around 60 frames per second. It’s also incredibly useful when activating the other main party trick of RTX cards – ray tracing. DLSS can offset the performance loss of ray tracing quite well, with an end result that is at times spectacular.
That’s the least you need to know before deciding to go with DLSS or not. Just remember that this technology is changing rapidly, so if you don’t like the results today, come back in a few months and you just might just be blown away at last.