YouTube introduce ufficialmente la modalità HDR nei suoi video

YouTube introduce ufficialmente la modalità HDR nei suoi video

Google permetterà di visionare i video nella propria piattaforma anche in HDR. L'arrivo della nuova modalità è finalmente ufficiale e permetterà dunque di sfruttare al meglio anche il nuovo Chromecast Ultra.

di Bruno Mucciarelli pubblicata il , alle 14:01 nel canale Audio Video
YouTubeHDR
 

L'evoluzione della tecnologia per i contenuti video ha raggiunto livelli mai pensati prima. Per questo anche le più comuni ed utilizzate piattaforme devono chiaramente adeguarsi e Google con YouTube ne è palesemente l'esempio. Da poco l'azienda di Mountain View ha infatti ufficializzato il supporto, nella propria piattaforma, ai contenuti video in HDR che dunque potranno essere visionati da tutti coloro in possesso di un televisore o di un monitor compatibile proprio alla modalità High Dynamic Range.

Sappiamo bene come l'HDR in questo caso permetta di mostrare una più ampia gamma dinamica delle immagini avendo quindi un risultato dei contenuti superiore ed il più possibile fedele alla realtà, soprattutto con i contrasti, le luci e le ombre. Google assicura che tutti i filmati continueranno ad essere proposti anche nel formato classico e dunque la modalità HDR risulterà essere un "plus" per tutti gli amanti di questo nuovo format.

A partire da oggi potete guardare i video di YouTube in HDR sui dispositivi compatibili come i televisori HDR a cui è connesso il nuovo Chromecast Ultra e presto sulle TV SUDH e UHD di Samsung. Se state utilizzando un dispositivo che ancora non supporta l’HDR, nessun problema, i filmati saranno ancora riprodotti nella modalità Standard Dynamic Range.

Google dunque si adegua velocemente alla progressione tecnologica e come già avvenuto in passato per i contenuti in 4K, per i video a 360 gradi nonché per quelli tridimensionali, anche in questo caso l'azienda è pronta già a mostrare i nuovi video in HDR. Tutto dipenderà, a questo punto, dal supporto che i produttori di questi video apporteranno non solo con la realizzazione dei video in HDR, ma anche il loro caricamento e chiaramente la loro condivisione con la community.

Resta aggiornato sulle ultime offerte

Ricevi comodamente via email le segnalazioni della redazione di Hardware Upgrade sui prodotti tecnologici in offerta più interessanti per te

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione

20 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
demon7708 Novembre 2016, 14:44 #1
Chiedo dei chiarimenti..

Una foto "HDR" viene fatta unendo diversi scatti a diversa esposizione per ottenere uno scatto mix che è appnto il risultato finale.
Quel risultato però non è nulla più che una semplice immagine JPG (o altro)..
Non è che per vederela c'è bisogno di qualcosa di speciale.

Nei viseo "HDR" cosa cambia rispetto alla comune foto?
Cloud7608 Novembre 2016, 14:49 #2
Delle due immagini qui sopra quella a sinistra fa schifo perchè è volutamente slavata, ingrigita, sembra che c'è la nebbia sopra; quella a destra è invece sovrasatura per far vedere una netta differenza finendo per rendere l'immagine artefatta.
Poi mi sono sempre piaciuti i video "dimostrativi" tipo quello che si vede qui, con immagini super sature e contrastatissime per far vedere mega colori e neri più neri (che vedo anche sul mio attuale monitor economico e senza HDR)... ancora più belli sono quelli in cui si vede il video a metà con la differenza tra il tuo tv e quello nuovo (che ovviamente ha immagini coloratissime e bellissime) ma che, ovviamente, stai vedendo sul tuo attuale tv... quindi o fanno schifo entrambe perchè la tua tv fa schifo o sono belle entrambe perchè non c'è sta gran differenza (a parte quella artefatta per far figurare meglio la seconda).
MadMax of Nine08 Novembre 2016, 14:59 #3
Originariamente inviato da: demon77
Chiedo dei chiarimenti..

Una foto "HDR" viene fatta unendo diversi scatti a diversa esposizione per ottenere uno scatto mix che è appnto il risultato finale.
Quel risultato però non è nulla più che una semplice immagine JPG (o altro)..
Non è che per vederela c'è bisogno di qualcosa di speciale.

Nei viseo "HDR" cosa cambia rispetto alla comune foto?


Ci sono dei fattori che permettono di qualificare una TV come HDR, sono:
- Contrasto
- Colori visualizzati (tra gli 8 e i 10bit, perciò più di 16 milioni di colori e meno di 1 miliardo)
- Spazio colore che sia un P3 (come gli ultimi display dei MacBook Pro o degli iMac), le "vecchie" TV usano il Rec.709 che è meno ampio

Non ne ho mai visto uno dal vivo ma sinceramente non mi sembra una rivouzione visto che i contenuti buoni scarseggiano, peccato che l'anno scorso ho cambiato la TV con una 4K non HDR, ma sono sicuro che vivrò bene lo stesso ancora per qualche anno
MadMax of Nine08 Novembre 2016, 15:01 #4
Originariamente inviato da: Cloud76
Delle due immagini qui sopra quella a sinistra fa schifo perchè è volutamente slavata, ingrigita, sembra che c'è la nebbia sopra; quella a destra è invece sovrasatura per far vedere una netta differenza finendo per rendere l'immagine artefatta.
Poi mi sono sempre piaciuti i video "dimostrativi" tipo quello che si vede qui, con immagini super sature e contrastatissime per far vedere mega colori e neri più neri (che vedo anche sul mio attuale monitor economico e senza HDR)... ancora più belli sono quelli in cui si vede il video a metà con la differenza tra il tuo tv e quello nuovo (che ovviamente ha immagini coloratissime e bellissime) ma che, ovviamente, stai vedendo sul tuo attuale tv... quindi o fanno schifo entrambe perchè la tua tv fa schifo o sono belle entrambe perchè non c'è sta gran differenza (a parte quella artefatta per far figurare meglio la seconda).


hahah
demon7708 Novembre 2016, 15:12 #5
Originariamente inviato da: MadMax of Nine
Ci sono dei fattori che permettono di qualificare una TV come HDR, sono:
- Contrasto
- Colori visualizzati (tra gli 8 e i 10bit, perciò più di 16 milioni di colori e meno di 1 miliardo)
- Spazio colore che sia un P3 (come gli ultimi display dei MacBook Pro o degli iMac), le "vecchie" TV usano il Rec.709 che è meno ampio

Non ne ho mai visto uno dal vivo ma sinceramente non mi sembra una rivouzione visto che i contenuti buoni scarseggiano, peccato che l'anno scorso ho cambiato la TV con una 4K non HDR, ma sono sicuro che vivrò bene lo stesso ancora per qualche anno


Capito grazie!
matsnake8608 Novembre 2016, 17:08 #6
specchietti per allodole....

Ancora non capisco a cosa cavolo serve l'hdr.
Più che dare un beneficio effettivo all'immagine c'è il rischio che la distorca da come era stata pensata originariamente.... boh.
Wolland08 Novembre 2016, 17:19 #7
Originariamente inviato da: MadMax of Nine
...
- Colori visualizzati (tra gli 8 e i 10bit, perciò più di 16 milioni di colori e meno di 1 miliardo)


Con 8 bit hai 256 colori, con 10 bit ne hai 1024... Mi son perso qualcosa?
appleroof08 Novembre 2016, 17:28 #8
Originariamente inviato da: Cloud76
Delle due immagini qui sopra quella a sinistra fa schifo perchè è volutamente slavata, ingrigita, sembra che c'è la nebbia sopra; quella a destra è invece sovrasatura per far vedere una netta differenza finendo per rendere l'immagine artefatta.
Poi mi sono sempre piaciuti i video "dimostrativi" tipo quello che si vede qui, con immagini super sature e contrastatissime per far vedere mega colori e neri più neri (che vedo anche sul mio attuale monitor economico e senza HDR)... ancora più belli sono quelli in cui si vede il video a metà con la differenza tra il tuo tv e quello nuovo (che ovviamente ha immagini coloratissime e bellissime) ma che, ovviamente, stai vedendo sul tuo attuale tv... quindi o fanno schifo entrambe perchè la tua tv fa schifo o sono belle entrambe perchè non c'è sta gran differenza (a parte quella artefatta per far figurare meglio la seconda).


genio
riccardo.lago08 Novembre 2016, 17:30 #9
8 bit per componente...per cui 256^3= circa 16mln di colori, mentre 10 bit per componente è 1024^3= circa 1mld di colori.

riccardo.lago08 Novembre 2016, 17:31 #10
Originariamente inviato da: Wolland
Con 8 bit hai 256 colori, con 10 bit ne hai 1024... Mi son perso qualcosa?


8 bit per componente...per cui 256^3= circa 16mln di colori, mentre 10 bit per componente è 1024^3= circa 1mld di colori.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^