HDR 은 지난 몇 년 동안 웹에서 가장 많이 논의된 기술 중 하나입니다. TV와 영화(TVs and movies) , 컴퓨터 모니터와 게임에 관한 것이든 HDR 은 우리의 많은 기기에서 발판을 마련하고 있습니다. HDR 이 무엇인지 알고 싶 습니까? HDR 의 다양한 유형, 표준 및 인증이 무엇인지 알고 있습니까? HDR 과 관련하여 일부 화면이 다른 화면보다 더 나은 이유를 이해하고 HDR10 , HDR10+ , Dolby Vision , DisplayHDR 400 또는 DisplayHDR 1000 과 같은 용어가 모두 무엇인지 알고 싶다면 다음 기사를 읽으십시오.
HDR이란 무엇입니까?
HDR은 High Dynamic Range의 약자로 이미지를 실제와 최대한 유사하게 만드는 기술입니다. (HDR is an acronym for High Dynamic Range, and it is a technology designed to make images resemble the real world as closely as possible.) HDR 은 사진뿐만 아니라 화면과 관련된 모든 것에서 들을 수 있는 용어입니다.
이미지를 최대한 사실적으로 만들기 위해 HDR(HDR use) 이 있는 장치는 더 넓은 범위의 색상, 더 밝은 영역, 더 어두운 검정색을 음영으로 사용합니다. 이 모든 것이 훨씬 더 균형 잡힌 명암비와 함께 이미지를 현실 세계에서 인간의 눈이 보는 것에 더 가깝게 현실적이고 정확하게 보이게 합니다.
모니터, TV 또는 기타 유사한 장치에 표시되는 디지털 이미지의 경우 HDR 은 복잡한 색상 조합과 밝은 영역과 어두운 영역이 있는 사진이나 비디오에서 특히 두드러집니다. 그러한 예는 일몰과 일출, 밝은 하늘, 눈 덮인 풍경 등이 될 수 있습니다.
HDR 10 , HDR+ , Dolby Vision 및 HLG 와 같은 다양한 HDR 형식 은 무엇입니까 ?
화면과 관련하여 HDR 10(HDR 10) , HDR+ 및 Dolby Vision 의 세 가지 주요 HDR 형식 또는 프로필이 있습니다 . 이러한 모든 미디어 프로필은 비디오 콘텐츠가 기록 또는 렌더링되는 방식과 HDR 화면이 있는 장치에서 해당 콘텐츠가 표시되는 방식 모두에 적용됩니다. 더 사실적인 이미지를 표시하기 위해 모두 같은 것을 목표로 하지만 요구 사항, 사양 및 속성이 다릅니다.
다양한 HDR(HDR) 프로필 을 정의하는 필수 기준은 이미지 품질(image quality) 과 관련이 있습니다 . 비교를 위해 아래 표를 참조하십시오.
다음 기준을 하나씩 살펴보겠습니다.
비트 깊이. (Bit depth.)일반적으로 모니터, 노트북 화면, TV(TVs) 및 스마트폰을 포함한 대부분의 기타 화면은 8비트 색상을 사용합니다. 이를 통해 1670만 색상을 표시할 수 있습니다. HDR 화면은 10비트 또는 12 비트 심도(bit depth) 를 가지고 있어 각각 10억 7천만 색상 또는 687억 색상을 표시할 수 있습니다. HDR 10 및 HDR10+ 는 10비트 색상을 사용하는 반면 Dolby Vision 은 12 (Dolby Vision)비트 심도(bit depth) 를 지원합니다 . 모두 인상적이고 엄청난 숫자입니다. 그러나 적어도 당분간은 시장에 10비트 화면( HDR and HDR+ )만 있으므로 Dolby Vision 이(Dolby Vision)환상적으로 들리지만 현재로서는 어떤 소비자용 화면에서도 즐길 수 없습니다.
피크 밝기. (Peak brightness.)이것은 HDR(HDR) 이 적용된 화면에서 얻을 수 있는 최소 피크 휘도량을 나타냅니다 . 화면이 HDR(HDR) 이미지 를 표시할 수 있으려면 일반 SDR ( Standard Dynamic Range ) 화면 보다 더 높은 밝기 수준이 필요합니다 . 최대 밝기(Peak brightness) 는 cd/m²로 측정되며 일반적으로 최소 400cd/m²와 같아야 합니다. 이 튜토리얼의 다음 섹션을 읽고 최대 밝기(peak brightness) 를 기반으로 하는 다양한 HDR 표준을 확인하십시오 .
최대 검정 밝기. (Maximum black brightness.)아시다시피 HDR 화면은 가능한 한 현실에 가까운 이미지를 표시하는 것을 목표로 합니다. 그렇게 하려면 밝은 이미지 영역에 대한 높은 피크 휘도(peak luminance) 외에도 매우 어두운 검정색을 사용하여 어두운 영역을 표시할 수 있어야 합니다. 그것이 최대 블랙 레벨 휘도(maximum black level luminance) 가 작용하는 곳입니다. 이 속성의 일반적인 값은 0.4cd/m² 미만이지만 HDR 프로토콜에 관한 한 요구 사항은 없습니다. 그러나 VESA DisplayHDR 표준에는 최대 블랙 레벨 휘도 에 대한 특정 값이 있습니다.(level luminance), 이 기사의 다음 섹션에서 볼 수 있듯이. 0.0005cd/m² 미만의 밝기에서 검은색을 표시할 수 있는 모든 화면은 True Black 으로 간주됩니다 .
톤 매핑. (Tone mapping.)영화나 게임과 같이 HDR(HDR) 로 만든 콘텐츠 는 HDR 화면(HDR screen) 이 실제로 표시할 수 있는 것보다 훨씬 더 높은 밝기 값을 가질 수 있습니다. 예를 들어, 영화의 일부 시퀀스는 밝기 수준이 1000cd/m²를 넘을 수 있지만 보고 있는 HDR 화면(HDR screen) 의 최대 밝기는 400cd/m²입니다. 그러면 어떻게 됩니까? 이미지에서 400cd/m²보다 밝은 부분이 손실되었다고 생각하고 싶을 수 있습니다. 적어도 완전히는 아닙니다. HDR 화면(HDR screen) 이 하는 일은 톤 매핑(tone mapping) 이라고 하는 것입니다 . 기본적으로 알고리즘을 사용하여 촬영된 이미지의 밝기를 줄여서 최대 밝기를 초과하지 않도록 합니다. 확신하는(Sure), 이러한 방식으로 일부 정보가 손실되고 대비가 실제로 SDR ( 표준 동적 범위(Standard Dynamic Range) ) 화면보다 나빠 보일 수 있습니다. 그러나 이미지에는 여전히 SDR(SDR) 화면 보다 더 많은 세부 정보가 있습니다 .
메타데이터. (Metadata.)HDR 화면(HDR screen) 에서 HDR 콘텐츠(HDR content) 를 표시할 수 있으려면 영화든 게임이든 상관없이 해당 콘텐츠가 HDR 로 생성되어야 합니다 . 예를 들어 SDR(SDR) ( Standard Dynamic Range ) 로 영화를 촬영 하고 TV 에서 HDR 로 표시되기를 기대할 수는 없습니다 . HDR 로 만든 콘텐츠(Content) 는 표시 방법에 대한 메타데이터라는 정보를 저장합니다. 그런 다음 해당 정보는 콘텐츠를 재생하는 장치에서 콘텐츠를 올바르게 디코딩하는 데 사용되며, 예를 들어 적절한 밝기만 사용합니다. 문제는 모든 HDR 이(HDR)형식은 동일한 종류의 메타데이터를 사용합니다. HDR10 은 정적 메타데이터를 사용하므로 콘텐츠가 표시되는 방식에 적용되는 설정이 처음부터 끝까지 동일합니다. HDR10+ and Dolby Vision 은 동적 메타데이터를 사용하므로 표시되는 이미지를 즉석에서 조정할 수 있습니다. 즉, HDR 콘텐츠(HDR content) 는 장면마다 또는 비디오의 각 프레임에 대해 다양한 밝기 범위를 사용할 수 있습니다.
우리가 아직 HLG(HLG) 에 대해 언급하지 않았다는 것을 눈치 채셨을 것 입니다. HLG는 Hybrid Log Gamma 에서 유래 했으며 TV 회사와 같은 콘텐츠 배포자 가 단일 스트림을 사용하여 SDR ( Standard Dynamic Range ) 및 HDR ( High Dynamic Range )인 (High Dynamic Range)TV 콘텐츠(TV content) 를 방송할 수 있도록 하는 HDR 표준(HDR standard) 을 나타냅니다 . 해당 스트림이 TV에 도달하면 콘텐츠가 TV의 기능에 따라 SDR 또는 HDR 로 표시됩니다 .
DisplayHDR이란 무엇입니까?
또한 HDR(HDR) 형식 외에도 상황을 좀 더 복잡하게 만들기 위해 DisplayHDR 이라는 (DisplayHDR)HDR 성능(HDR performance) 사양 도 있습니다. DisplayHDR 인증을 받은 장치 는 특정 품질에서 HDR 로 이미지를 표시할 수 있음을 보장하는 일련의 표준을 충족합니다 . 인터넷이나 전자상가에서 구입할 새 TV나 모니터를 검색했다면 DisplayHDR 400 , DisplayHDR 600 또는 Display HDR 1000 또는 이와 유사한 용어를 우연히 발견했을 것입니다. 그들은 무엇을 의미합니까?
VESA ( Video Electronics Standards Association )는 전 세계 200여 개 기업의 국제 협회로 TV와 컴퓨터 모니터를 포함한 모든 종류의 비디오 디스플레이에 대한 기술 표준을 만들고 유지합니다. 이러한 표준을 수립한 분야 중 하나는 HDR 입니다. HDR 디스플레이(HDR display) 에 대한 표준을 DisplayHDR 이라고 하며 모두 HDR10 이상을 지원하는 화면에 적용됩니다 . DisplayHDR 인증(DisplayHDR-certified) 을 받으려면 TV, 모니터 및 HDR 디스플레이(HDR display) 가 있는 기타 모든 장치가 다른 기술 사양 중에서 다음 밝기 표준을 충족해야 합니다.
Windows 10 PC에서 HDR 을 활성화하려면 어떻게 합니까 ?
HDR 에 대한 마지막 참고 사항으로 HDR 및 Windows 10(HDR and Windows 10) 에 대해 조금 말씀드리고자 합니다 . Windows 10 컴퓨터 또는 장치(computer or device) 를 사용하는 경우 흥미로운 사실은 이 운영 체제 (operating system) 가 HDR10만 지원한다는 것(supports only HDR10) 입니다.
또한 Nvidia GTX 900(Nvidia GTX 900) 시리즈, GTX 10 시리즈, GTX 16 시리즈 또는 RTX 20 시리즈 그래픽 카드 를 사용하는 경우에만 PC에서 게임이나 영화의 HDR 콘텐츠(HDR content) 를 즐길 수 있습니다 . AMD 사용자(AMD user) 인 경우 AMD Radeon R9 38(AMD Radeon R9 38) 또는 39 시리즈 그래픽 카드 또는 Radeon RX 460 이상이 필요합니다. PC가 이러한 기준을 충족하고 HDR 모니터 도 있는 경우 (HDR monitor)HDR 을 활성화하는 방법을 배우고 싶을 수 있습니다 . Windows 10 컴퓨터 에서 HDR 을 켜려면 어떻게 해야 합니까?
HDR 에 대해 더 알고 싶은 것이 있습니까?
HDR이 무엇인지, 왜 HDR(HDR) 이 화면에 표시되기를 원하는지 에 대해 조금이나마 알 수 있기를 바랍니다. HDR 지원(HDR support) 을 제공하는 모니터나 TV를 구입할 의향이 있습니까? 이미 하나 이상이 있습니까? 아래 의견 섹션에 의견과 질문이 있는 경우 공유해 주시면 최선을 다해 도와드리겠습니다.
What is HDR? What's different between HDR formats?
HDR iѕ one of the most discussed technologies on the web in the past few yearѕ. Whether it's aboυt TVs and movies, or computer monitors and games, HDR is gaining a foothold on many of our dеvices. Do you want to know what HDR is? Do you know what the different typeѕ, standards, and certifications of HDR are? If you want to understand why some screens are better than others when it comes to HDR, and to see what terms ѕuch as HDR10, HDR10+, Dolbу Vision, DisplayHDR 400 or DisplayHDR 1000 are all about, read this article:
What is HDR?
HDR is an acronym for High Dynamic Range, and it is a technology designed to make images resemble the real world as closely as possible. HDR is a term that you can hear of in photography, as well as in everything that's screens-related.
In order to make images as authentic as possible, devices with HDR use wider ranges of colors, brighter light areas, and darker blacks for shades. All these, together with much more balanced contrast ratios, make images look more realistic and accurate, closer to what the human eye would see in the real world.
When it comes to digital images displayed on a monitor, TV, or any other similar devices, HDR is especially noticeable in pictures or videos that have complex combinations of colors, and light and dark areas. Such examples can be sunsets and sunrises, bright skies, snowy landscapes, etc.
What are the different HDR formats: HDR 10, HDR+, Dolby Vision, and HLG?
In terms of screens, there are three major HDR formats, or profiles if you prefer: HDR 10, HDR+, and Dolby Vision. All these media profiles apply both to how video content is recorded or rendered, and to how that content is displayed by devices with HDR screens. Although all of them aim for the same thing - to display more realistic images - they have different requirements, specs, and properties.
The essential criteria that define the different HDR profiles are related to image quality. See the table below for a comparison:
Let's cover these criteria one by one:
Bit depth. Usually, monitors, laptop screens, TVs, and most other screens, including those on smartphones, use 8-bit colors. That allows them to show 16.7 million colors. HDR screens have a 10-bit or 12-bit depth, which allows them to display 1.07 billion colors, or 68.7 billion colors respectively. HDR 10 and HDR10+ have 10-bit colors, while Dolby Vision supports a bit depth of 12. All are impressive, huge numbers. However, you should know that, at least for the time being, there are only 10-bit screens on the market (HDR and HDR+), so even if Dolby Vision sounds fantastic, you don't get to enjoy it on any consumer screens for the moment.
Peak brightness. This refers to the minimum amount of peak luminance attainable by a screen with HDR. For screens to be able to display HDR images, they need higher brightness levels than regular SDR (Standard Dynamic Range) screens. Peak brightness is measured in cd/m² and usually has to be equal to at least 400 cd/m². Read the next section of this tutorial to see the different HDR standards based on peak brightness.
Maximum black brightness. As you know, HDR screens aim to display images that are as close to reality as possible. To do that, besides a high peak luminance for bright image areas, they must also be able to display dark areas using very dark blacks. That's where the maximum black level luminance comes into play. The typical values for this attribute are less than 0.4 cd/m², but there is no requirement as far as HDR protocols are concerned. However, VESA DisplayHDR standards do have specific values for the maximum black level luminance, as you can see in the next section of this article. Any screen that can show blacks at a brightness of less than 0.0005 cd/m² is considered to be True Black.
Tone mapping. Content that was created with HDR, such as movies or games, can have much higher brightness values than what an HDR screen can actually display. For instance, some sequences in a movie might have brightness levels of over 1000 cd/m², but the HDR screen on which you're watching it has a peak brightness of 400 cd/m². What happens then? You might be tempted to think that any parts of the image that are brighter than 400 cd/m² are lost. They're not, at least not entirely. What HDR screens do is something called tone mapping, basically using algorithms to reduce the brightness of the filmed images, so that it doesn't go beyond their peak brightness. Sure, some information is lost this way, and contrast can actually look worse than on an SDR (Standard Dynamic Range) screen. However, images still have more details than on SDR screens.
Metadata. In order for an HDR screen to be able to display HDR content, regardless of whether it is a movie or a game, that content must be created with HDR. You can't just film a movie in SDR (Standard Dynamic Range) and expect it to be displayed in HDR on a TV, for example. Content that's created with HDR stores information called metadata about how it should be displayed. That information is then used by the devices on which you play the content to decode the content correctly, and use just the right amount of brightness, for example. The problem is that not all HDR formats use the same kind of metadata. HDR10 uses static metadata, which means that the settings applied to how the content is displayed are the same from beginning to the end. HDR10+ and Dolby Vision, on the other hand, use dynamic metadata, which means that the images displayed can be adjusted on-the-fly. In other words, HDR content can use different ranges of brightness on different scenes, or even for each frame of a video.
You might have noticed that we didn't mention anything about HLG yet. HLG comes from Hybrid Log Gamma and represents an HDR standard that allows content distributors, such as television companies, to broadcast TV content that's both SDR (Standard Dynamic Range) and HDR (High Dynamic Range) using a single stream. When that stream reaches your TV, the content is displayed either in SDR, or in HDR, depending on what your TV is capable of.
What is DisplayHDR?
Furthermore, to make things a bit more complicated, besides HDR formats, there's also the HDR performance specification called DisplayHDR. Devices that bear the DisplayHDR certification meet a series of standards that ensure that they can display images with HDR at a certain quality. If you've searched the internet or electronic shops for a new TV or a monitor to buy, you might have stumbled across the terms DisplayHDR 400, DisplayHDR 600 or Display HDR 1000, or others like that. What do they mean?
VESA (Video Electronics Standards Association), which is an international association of over 200 companies all over the world, creates and maintains technical standards for all kinds of video displays, including TVs and computer monitors. One of the fields in which they have established such standards is HDR. Their standards for HDR displays are called DisplayHDR, and all apply to screens that support at least HDR10. To be DisplayHDR-certified, a TV, monitor, and any other device with an HDR display must meet the following brightness standards, among other more technical specifications:
How do I enable HDR on my Windows 10 PC?
As a final note on HDR, we'd like to tell you a bit about HDR and Windows 10. If you are using a Windows 10 computer or device, an interesting fact is that this operating system supports only HDR10.
Furthermore, you can enjoy HDR content in games or movies on your PC only if you're using an Nvidia GTX 900 series, GTX 10-series, GTX 16-series, or RTX 20-series graphics card. If you're an AMD user, you need to have an AMD Radeon R9 38 or 39-series graphics card or a Radeon RX 460 and up. If your PC meets these criteria and you also have an HDR monitor, you might want to learn how to enable HDR on it: How do I turn on HDR on my Windows 10 computer?
Is there anything else you would like to know about HDR?
We hope that we've managed to shed a bit of light on what HDR is and why you would want it on your screens. Do you intend to buy a monitor or a TV that offers HDR support? Do you already have one or more? Share your opinions and questions, if you have some, in the comments section below, and we'll do our best to help.