Netflix annuncia il supporto all'HDR anche per Windows 10
Il servizio di streaming video annuncia la compatibilità con il nuovo standard video HDR anche per il sistema operativo Windows 10. Ecco dunque le novità in arrivo.
di Bruno Mucciarelli pubblicata il 21 Dicembre 2017, alle 14:21 nel canale Audio VideoNetflixWindowsMicrosoftIntelNVIDIA
Tutti gli utenti Windows 10 in possesso di un terminale compatibile potranno da oggi approfittare della visione dei contenuti di Netflix in HDR. Tramite una stretta collaborazione tra Netflix e Microsoft, infatti, tutti coloro in possesso di un PC supportante la nuova tecnologia High Dynamic Range (HDR) e chiaramente un piano premium potranno godersi le serie TV o i film in alta definizione.
L'annuncio arriva direttamente dal colosso dello streaming mondiale il quale ha voluto ribadire come tale obbiettivo sia stato raggiunto grazie al risultato di una collaborazione pluriennale tra Netflix e numerosi partner del settore. In tal caso "i contenuti HDR su Netflix sono solitamente distribuiti nel formato di codifica HEVC e richiedono una componente hardware per la loro protezione. I processori Intel, a partire dalla 7° generazione, integrano questa componente. Inoltre, sia Intel che Nvidia hanno sviluppato schede grafiche capaci di utilizzare fino a 10 bit per canale per visualizzare ciascuno dei colori primari RGB, e il risultato è uno spazio colore decisamente più esteso. Con l’arrivo di questi nuovi componenti sui PC consumer, Netflix e Microsoft hanno stretto una partnership per mettere insieme tutti i pezzi lato software".
Proprio Microsoft ha implementato le modifiche necessarie al sistema operativo e al browser con il recente Fall Creators Update di Windows 10 e dunque gli sviluppatori di Netflix hanno integrato tali API nei propri player video permettendo dunque la fruizione totale dei contenuti in HDR per gli utenti.
Da oggi dunque sarà possibile seguire le vicende spaventose nelle profondità del Sottosopra di Stranger Things 2 o magari godersi gli incredibili colori di Chef's Table o ancora godersi il prossimo film di Natale come Bright che vede protagonista Will Smith. Ad oggi, Netflix, conta già oltre 200 ore di intrattenimento in HDR e nel 2018 l'azienda conta di aumentare la disponibilità grazie all'arrivo sul mercato di nuovi PC con supporto all'HDR.
10 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infofixed
Vuol dire, "semplicemente", che il filmato mantiene una maggiore informazione circa la luminositá della scena. Se lo schermo é in grado di gestisce il formato, é anche in grado di riprodurre una maggiore quantitá di valori di luminositá.
Esempio:
immagina una caverna buia. Fuori é una bella giornata. Ti metti davanti all'ingresso e fai una foto: orca, l'ingresso é buono, ma l'interno é completamente nero.
Allora alzi gli iso e magari pure l'esposizione. Ora vedi le rocce all'interno, ma fuori é tutto inguaribilmente sovraesposto.
Perché non riesci a fare una foto che riprenda bene sia l'interno che l'esterno? Perché le foto "classiche" (e quindi anche i video) possono memorizzare solo una gamma relativamente ristretta di luminositá, e le caratteristiche di esposizione decidono quale finestra viene scelta. Tra la caverna buia e il sole dritto in faccia c'é un rapporto di 10 milioni a uno (esempio a caso) ma la tua foto puó rappresentarne solo 10 mila a uno, sta a te scegliere quale regolando esposizione, iso etc.
Ora, in genere questo non é un problema: tanto sia le stampe che gli schermi tradizionali piú di un tot non possono fare.
Ma ora il limite sta diventando stretto: non é solo una questione di range, ma anche di risoluzione: quanto due livelli di luminositá devono essere diversi perché la fotografia li tratti come 2 valori distinti.
Hanno quindi inventato il concetto di HDR (high dynamic range). In CGI ha giá anni e anni alle spalle: fai il rendering in HDR e converti solo alla fine in LDR.
Poi hanno inventato le foto HDR: si creano solitamente con esposizionni multiple e possono essere usate in CGI per illuminare una scena.
Ora le propongono (in versione credo molto depotenziata) anche per i video. Non ho ancora visto bene una tv HDR, quindi non so se il miglioramento c'é, peró potenzialmente dovrebbe consentire un maggior realismo, perché l'occhio umano non ha solo una ottima risoluzione spaziale (a cui diamo risposta con FHD e UHD) e cromatica, ma anche di luminositá.
Spero che questo ti sia di aiuto.
Vuol dire, "semplicemente", che il filmato mantiene una maggiore informazione circa la luminositá della scena. Se lo schermo é in grado di gestisce il formato, é anche in grado di riprodurre una maggiore quantitá di valori di luminositá.
Esempio:
immagina una caverna buia. Fuori é una bella giornata. Ti metti davanti all'ingresso e fai una foto: orca, l'ingresso é buono, ma l'interno é completamente nero.
Allora alzi gli iso e magari pure l'esposizione. Ora vedi le rocce all'interno, ma fuori é tutto inguaribilmente sovraesposto.
Perché non riesci a fare una foto che riprenda bene sia l'interno che l'esterno? Perché le foto "classiche" (e quindi anche i video) possono memorizzare solo una gamma relativamente ristretta di luminositá, e le caratteristiche di esposizione decidono quale finestra viene scelta. Tra la caverna buia e il sole dritto in faccia c'é un rapporto di 10 milioni a uno (esempio a caso) ma la tua foto puó rappresentarne solo 10 mila a uno, sta a te scegliere quale regolando esposizione, iso etc.
Ora, in genere questo non é un problema: tanto sia le stampe che gli schermi tradizionali piú di un tot non possono fare.
Ma ora il limite sta diventando stretto: non é solo una questione di range, ma anche di risoluzione: quanto due livelli di luminositá devono essere diversi perché la fotografia li tratti come 2 valori distinti.
Hanno quindi inventato il concetto di HDR (high dynamic range). In CGI ha giá anni e anni alle spalle: fai il rendering in HDR e converti solo alla fine in LDR.
Poi hanno inventato le foto HDR: si creano solitamente con esposizionni multiple e possono essere usate in CGI per illuminare una scena.
Ora le propongono (in versione credo molto depotenziata) anche per i video. Non ho ancora visto bene una tv HDR, quindi non so se il miglioramento c'é, peró potenzialmente dovrebbe consentire un maggior realismo, perché l'occhio umano non ha solo una ottima risoluzione spaziale (a cui diamo risposta con FHD e UHD) e cromatica, ma anche di luminositá.
Spero che questo ti sia di aiuto.
Descrizione splendida, anche se in alcuni casi anche le foto in hdr mi sebravano molto artefatte e poco reali, del tipo rendere visibili dei dettagli falsando la luminosità della parte di foto togliendo atmosfera e realismo, perchè anche tu se hai il sole in faccia dentro alla grotta non vedi
Le foto cosiddette HDR non sono in realtá "vere" HDR nel momento in cui vengono visualizzate: i monitor sono comunque LDR (anche quelli HDR, rispetto al range permesso da certi formati, sono sostanzialmente LDR), solo che vengono passate attraverso un algoritmo di "Tone mapping" che converte da HDR a LDR. Le cosiddette immagini HDR che vediamo sempre piú spesso sono create da tone mappers che permettono di mantenere il contrasto locale (quindi i dettagli) su un ampio range di luminositá.
E sí, anche gli occhi non hanno un range completo (e devono variare l'apertura in base alla luminositá peró hanno una gamma decisamente superiore a quella di molte fotocamete (anche se non conosco i dettagli tecnici dei modelli piú evoluti, che magari fanno molto meglio).
Vuol dire, "semplicemente", che il filmato mantiene una maggiore informazione circa la luminositá della scena. Se lo schermo é in grado di gestisce il formato, é anche in grado di riprodurre una maggiore quantitá di valori di luminositá.
Esempio:
immagina una caverna buia. Fuori é una bella giornata. Ti metti davanti all'ingresso e fai una foto: orca, l'ingresso é buono, ma l'interno é completamente nero.
Allora alzi gli iso e magari pure l'esposizione. Ora vedi le rocce all'interno, ma fuori é tutto inguaribilmente sovraesposto.
Perché non riesci a fare una foto che riprenda bene sia l'interno che l'esterno? Perché le foto "classiche" (e quindi anche i video) possono memorizzare solo una gamma relativamente ristretta di luminositá, e le caratteristiche di esposizione decidono quale finestra viene scelta. Tra la caverna buia e il sole dritto in faccia c'é un rapporto di 10 milioni a uno (esempio a caso) ma la tua foto puó rappresentarne solo 10 mila a uno, sta a te scegliere quale regolando esposizione, iso etc.
Ora, in genere questo non é un problema: tanto sia le stampe che gli schermi tradizionali piú di un tot non possono fare.
Ma ora il limite sta diventando stretto: non é solo una questione di range, ma anche di risoluzione: quanto due livelli di luminositá devono essere diversi perché la fotografia li tratti come 2 valori distinti.
Hanno quindi inventato il concetto di HDR (high dynamic range). In CGI ha giá anni e anni alle spalle: fai il rendering in HDR e converti solo alla fine in LDR.
Poi hanno inventato le foto HDR: si creano solitamente con esposizionni multiple e possono essere usate in CGI per illuminare una scena.
Ora le propongono (in versione credo molto depotenziata) anche per i video. Non ho ancora visto bene una tv HDR, quindi non so se il miglioramento c'é, peró potenzialmente dovrebbe consentire un maggior realismo, perché l'occhio umano non ha solo una ottima risoluzione spaziale (a cui diamo risposta con FHD e UHD) e cromatica, ma anche di luminositá.
Spero che questo ti sia di aiuto.
Un commento come "i vecchi tempi" di hwupgrade (e mi riferisco alla community, non alla redazione).
Grande!
Tanto valore aggiunto. Complimenti e grazie.
cavilli per chi ha solid da buttare come per le tv 4k
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".