hdr cos'è

Cos’è la tecnologia HDR e tutte le differenze con il 4K

17/06/2021

La tecnologia HDR, o High Dynamic Range (Elevata Gamma Dinamica), consente di visualizzare sul tuo televisore immagini con una migliore gestione delle zone più chiare e scure, dove solitamente si perde qualche dettaglio. Questa tecnologia non va confusa con la risoluzione UHD 4K, che invece è relativa alla definizione delle immagini a video.

Cos’è la tecnologia HDR

La tecnologia HDR si diffonde inizialmente con la fotografia digitale: si tratta infatti di una tecnica utilizzata in computer grafica e in fotografia per ottenere un'immagine in cui l'intervallo dinamico, ovvero quello tra le aree visibili più chiare e quelle più scure, sia più ampio del normale. In altre parole, le immagini digitali catturate in maniera tradizionale vengono realizzate calcolando un’esposizione media della scena, sacrificando inevitabilmente dettagli nelle zone più scure e in quelle troppo chiare (un chiaro esempio è una foto scattata controsole). La tecnologia HDR consente invece di ottenere un'immagine con una corretta esposizione sia delle aree più scure, sia in quelle più chiare. Una fotografia HDR si ottiene solitamente unendo più scatti dello stesso soggetto: uno con esposizione corretta, uno sovraesposto (che quindi mette in evidenza anche le zone più scure) e uno sottoesposto (in grado di gestire meglio le luci più intense). 

 

Con i video le cose si complicano un po’ ma il principio è sostanzialmente lo stesso. Per visualizzare filmati registrati con la tecnica HDR è però necessario che il televisore sia in grado di leggere questo formato e di riprodurlo al meglio. I video visualizzati sfruttando la tecnologia HDR sono ben bilanciati e mostrano maggiori dettagli sia nelle zone più chiare, sia in quelle più scure. Anche la gestione dei colori gode di una maggiore uniformità, senza quelle zone particolarmente sature che danno a volte ai filmati un aspetto artificiale.

I diversi standard HDR

Esistono diversi standard per realizzare video HDR, sostanzialmente basati su differenti algoritmi utilizzati per la realizzazione di questi filmati, e purtroppo non sono compatibili tra loro: questo vuol dire che se un video è registrato con una determinata codifica HDR e questa non è supportata dal televisore, non sarà possibile visualizzare le immagini sfruttando tutta l’ampia gamma dinamica estesa. La buona notizia è che è comunque sempre possibile vederle in modalità standard (SDR).

 

HDR 10, HDR 10+, Dolby Vision, Hybrid Log-Gamma (HLG): questi sono i principali standard HDR presenti oggi sul mercato. Il primo è anche quello più diffuso; HDR10+ offre prestazioni superiori ma viene implementato solo da pochi produttori; Dolby Vision garantisce invece ottime performance ma è un sistema proprietario e per implementarlo sia i produttori di TV, sia i cineasti, devono pagare una royalty a Dolby. Il formato HLG nasce per le trasmissioni live e al momento viene utilizzato da Sky soprattutto nelle trasmissioni di eventi sportivi. Ha comunque il vantaggio di non precludere la visione broadcast o satellitare nel caso che lo streaming HDR non sia supportato.

 

I TV LG sono compatibili con la maggior parte di questi standard: la visione in HDR si attiva automaticamente e consente la visualizzazione di immagini perfettamente equilibrate nella gestione delle luci senza zone sovraesposte, né troppo scure.

Differenze tra HDR e UHD 4K

La tecnologia HDR viene particolarmente valorizzata dagli schermi UHD 4K ma non è necessariamente legata a quest’ultima. Con UHD 4K si intende infatti la risoluzione del pannello, ovvero il numero di punti (pixel) che è in grado di visualizzare. I vecchi TV a tubo catodico erano in grado di visualizzare immagini a una risoluzione standard (SD) composte da 720 x 480 pixel, con l’avvento dei TV LCD si è riusciti ad arrivare a una risoluzione 4 volte superiore, ovvero 1920 x 1080 pixel (Full HD), mentre quella definita UHD 4K quadruplica ulteriormente il numero di punti visualizzabili portandoli a 3840 x 2160. Oggi sono in commercio i primi modelli che raggiungono la straordinaria risoluzione UHD 8K: ben 7680 x 4320 pixel, per un totale di oltre 33 milioni di punti visualizzabili sullo schermo e in grado di offrire immagini davvero incredibili.

Monitor HDR

I vantaggi della tecnologia HDR sono apprezzabili anche con i monitor e in particolare con quelli da gaming: diversi videogiochi sfruttano infatti questa tecnologia ma, così come avviene con i TV, per apprezzarne a pieno i vantaggi è necessario avere un monitor compatibile. Quando di parla di monitor uno dei valori da considerare è il DisplayHDR, ideato nel 2017 da VESA, la Video Electronics Standards Association, per verificare le prestazioni HDR e fornire agli utenti informazioni più chiare in merito a questa tecnologia. Il valore di questo parametro fa riferimento al picco di luminosità misurato in candele al metro quadrato o cd/m2 ed equivalente a un lux. Un nit corrisponde alla stessa quantità di luce, per cui un monitor da 400 cd/m2 ha anche un picco di luminosità pari a 400 nit. La certificazione VESA DisplayHDR di base è pari proprio a 400, valore in cui l'effetto dell'HDR inizia a essere evidente, mentre il massimo è attualmente 1400, che, come abbiamo visto, si riferisce a un picco di luminosità (o luminanza) pari a 1.400 cd/m2.

 

Diversi monitor da gaming LG, come ad esempio il bellissimo LG 34GN850, supportano lo standard video HDR 10 e hanno una certificazione VESA DisplayHDR 400. Oltre alla tecnologia HDR è dotato di un pannello Ips curvo in formato 21:9 con risoluzione Quad HD (3440 x 1440 pixel), un incredibile Tempo di Risposta di 1 ms, una Frequenza di Refresh di 160 Hz, ed è compatibile sia con la tecnologia AMD FreeSync Premium, sia con quella Nvidia G-Sync. Il tutto per garantirti il massimo coinvolgimento con qualsiasi titolo!

Alcuni prodotti che ti consigliamo:

Leggi altri articoli del Magazine: