La registrazione di video e audio in un formato digitale comporta l’individuazione del giusto compromesso tra qualità da un lato e dimensioni dei file e il bitrate (o velocità di trasferimento dati) dall’altro. Nella maggior parte dei formati viene utilizzata la compressione per ridurre le dimensioni dei file e il bitrate attraverso la riduzione selettiva della qualità. La compressione è fondamentale per ridurre le dimensioni dei filmati, in modo da poterli memorizzare e riprodurre correttamente.

Quando esportate un file di filmato per la riproduzione su un tipo di dispositivo specifico con una determinata larghezza di banda, scegliete innanzitutto un encoder (codec). I vari encoder utilizzano schemi di compressione dei dati diversi. Ciascun encoder ha un decoder corrispondente che decomprime e interpreta i dati per la riproduzione.

Sono disponibili diversi codec; non esiste un unico codec valido per tutte le situazioni. Ad esempio, il miglior codec per la compressione dei video a cartoni animati in genere non è adeguato per filmati dal vivo.

La compressione può essere senza perdita di dati (non viene cioè eliminato alcun dato dell’immagine) o con perdita di dati (con eliminazione selettiva di alcuni dati dell’immagine).

Potete controllare molti dei fattori che influenzano la compressione e altri aspetti della codifica nella finestra di dialogo Impostazioni di esportazione. Consultate Codifica ed esportazione.

Nel sito Web di Adobe è disponibile un’esercitazione video di John Dickinson che mostra come usare Adobe Media Encoder con After Effects e Premiere Pro.

Per ulteriori informazioni sulla codifica e le opzioni di compressione, consultate la seguente domanda e risposta: “FAQ: What is the best format for rendering and exporting from After Effects?” (Qual è il miglior formato per il rendering e l’esportazione da After Effects?)

Compressione temporale e compressione spaziale

Le due categorie generali di compressione per i dati video e audio sono spaziali e temporali. La compressione spaziale viene applicata a un singolo fotogramma di dati, indipendentemente dai fotogrammi circostanti. La compressione spaziale viene spesso definita compressione intra-fotogramma.

Nella compressione temporale vengono rilevate le differenze tra fotogrammi contigui e vengono registrate solo tali differenze; i fotogrammi sono quindi descritti in base alle differenze che presentano rispetto al fotogramma precedente. Le aree in cui non si verificano modifiche vengono ripetute dal fotogramma precedente. La compressione temporale viene spesso definita compressione inter-fotogramma.

Bitrate

Il bitrate (velocità dati) incide sulla qualità di una clip video e su chi potrà scaricarne il file in base a eventuali limiti di ampiezza di banda.

Se dovete distribuire un video in Internet, create un file con valori di bitrate ridotti. Infatti, sebbene gli utenti con connessioni Internet veloci possano visualizzare i file con periodi di attesa trascurabili, gli utenti con una connessione lenta devono attendere che questi vengano scaricati. Se ritenete che la maggior parte degli utenti disponga di connessioni lente, create clip video brevi per ridurre i tempi di download.

Frequenza fotogrammi

Un video è una sequenza di immagini visualizzate in rapida successione, in modo da creare l’illusione del movimento. Per frequenza fotogrammi si intende il numero di fotogrammi visualizzati al secondo (fps). Maggiore è la frequenza fotogrammi, maggiore è il numero di fotogrammi visualizzati al secondo per riprodurre la sequenza e quindi più fluido appare il movimento. Tuttavia, se si utilizza una frequenza fotogrammi elevata per ottenere una qualità maggiore, si ottiene anche una quantità maggiore di dati e quindi è richiesta una maggiore ampiezza di banda.

Quando si lavora con video con compressione digitale, a una frequenza fotogrammi più elevata corrisponde anche una maggiore dimensione di file. Per ridurre la dimensione file, si può ridurre la frequenza fotogrammi o il bitrate. Se si riduce il bitrate senza modificare la frequenza fotogrammi, si ottiene una qualità immagine inferiore.

Poiché i video vengono riprodotti meglio con la frequenza fotogrammi nativa (utilizzata al momento della registrazione), se i canali di distribuzione e le piattaforme usate per la riproduzione lo consentono è consigliabile mantenere tale frequenza. Per il video NTSC full-motion, utilizzate 29,97 fps; per il video PAL, utilizzate 25 fps. Se si abbassa la frequenza fotogrammi, Adobe Media Encoder rilascia i fotogrammi con una frequenza lineare. Tuttavia, se occorre ridurre la frequenza fotogrammi, per ottenere il risultato migliore è consigliabile dividere la frequenza per un numero intero. Ad esempio, se la sorgente ha una frequenza fotogrammi di 24 fps, potete ridurla a 12 fps, 8 fps, 6 fps, 4 fps, 3 fps o 2 fps.

Per i dispositivi mobili, utilizzate predefiniti di codifica per specifici dispositivi dal pannello Browser predefiniti.

Nota:

se create un file SWF con video incorporato, la frequenza dei fotogrammi del video clip e del file SWF deve essere la stessa. Se si impiegano frequenze diverse, la riproduzione risulta incoerente.

Fotogrammi chiave

I fotogrammi chiave sono fotogrammi video (o immagini) completi inseriti a intervalli regolari in una clip video. I fotogrammi compresi tra fotogrammi chiave contengono informazioni sui cambiamenti che si verificano tra un fotogramma chiave e quello successivo.

Nota:

i fotogrammi chiave non sono la stessa cosa dei keyframe, ossia i marcatori che definiscono le proprietà dell’animazione in determinati momenti.

Per impostazione predefinita, Adobe Media Encoder determina automaticamente l’intervallo tra fotogrammi chiave (distanza tra i fotogrammi chiave) in base alla frequenza fotogrammi della clip video. Il valore della distanza tra fotogrammi chiave indica al codificatore la frequenza con cui valutare nuovamente l’immagine video e registrare nel file un fotogramma completo (o fotogramma chiave).

Se la ripresa presenta molti cambiamenti di scena o rapidi movimenti o animazioni, può essere opportuno usare un valore di distanza più basso. Una distanza di fotogramma chiave più ridotta corrisponde a un file di output più grande.

Se riducete la distanza tra fotogrammi chiave, aumentate il bitrate del file video in modo da mantenere una qualità immagine equivalente.

Proporzioni dell’immagine e dimensioni dei fotogrammi

Come la frequenza fotogrammi, le dimensioni dei fotogrammi di un file sono importanti per la produzione di video di alta qualità. A un determinato valore di bitrate, infatti, un aumento delle dimensioni dei fotogrammi riduce la qualità del video.

Le proporzioni di un’immagine sono il rapporto tra la larghezza e l’altezza. Le proporzioni di un’immagine più comuni sono 4:3 (televisione standard) e 16:9 (televisione widescreen e ad alta definizione).

Proporzioni dei pixel

Nella maggior parte della computergrafica si utilizzano pixel quadrati, con proporzioni di larghezza rispetto all’altezza pari a 1:1.

In alcuni formati video digitali, i pixel non sono quadrati. Ad esempio, il formato di video digitale (DV) standard NTSC ha una dimensione fotogramma di 720 x 480 pixel ed è visualizzato con proporzioni 4:3. Ogni pixel è quindi non quadrato, con proporzioni (PAR) pari a 0,91: (pixel più alto e stretto).

Video interlacciato e non interlacciato

Nei video interlacciati, ogni fotogramma è composto da due campi. Ciascun campo contiene la metà del numero di linee orizzontali presenti nel fotogramma; il campo superiore (Campo 1) contiene tutte le linee di numero dispari e il campo inferiore (Campo 2) contiene tutte le linee di numero pari. Nella visualizzazione di ciascun fotogramma nei monitor video interlacciati (ad esempio, in un televisore), prima vengono riprodotte tutte le linee di un campo e quindi quelle dell’altro campo. L’ordine dei campi specifica quale campo deve essere riprodotto per primo. Nel video NTSC, i nuovi campi vengono tracciati sullo schermo alla frequenza di 59,94 volte al secondo, corrispondente a una frequenza fotogrammi di 29,97 fotogrammi al secondo.

I fotogrammi video non interlacciati non sono separati in campi. Nella visualizzazione di ciascun fotogramma video (ad esempio il monitor di un computer) non interlacciato nei monitor a scansione progressiva tutte le linee orizzontali, dall’alto verso il basso, vengono riprodotte in un’unica operazione.

Adobe Media Encoder deinterlaccia il video prima della codifica ogni volta che scegliete di codificare una sorgente interlacciata in un output non interlacciato.

Video HD (High Definition, ad alta definizione)

Per video HD (alta definizione) si intende un formato video con dimensioni pixel superiori a quelli del formato video SD (definizione standard). In genere, definizione standard si riferisce ai formati digitali con risoluzione vicina a quella degli standard TV analogici, come NTSC e PAL (circa 480 o 576 righe verticali, rispettivamente). I formati HD più comuni hanno dimensioni pixel di 1280x720 o 1920x1080, con proporzioni di 16:9.

I formati video HD includono i tipi interlacciato e non interlacciato. Normalmente, i formati con la risoluzione superiore sono quelli interlacciati con la frequenza fotogrammi più alta, poiché i video non interlacciati a queste dimensioni pixel richiederebbero una frequenza fotogrammi insostenibile.

I formati video HD sono identificati dalla dimensione pixel verticale, modalità di scansione e frequenza fotogrammi o campi (a seconda della modalità di scansione). Ad esempio, 1080i60 denota una scansione interlacciata di 60 campi interlacciati da 1920x1080 al secondo; 720p30 denota invece una scansione progressiva di 30 fotogrammi da 1280x720 non interlacciati al secondo. In entrambi i casi, la frequenza di fotogrammi è di circa 30 fotogrammi al secondo.

Questo prodotto è concesso in licenza in base alla licenza di Attribuzione-Non commerciale-Condividi allo stesso modo 3.0 Unported di Creative Commons.  I post su Twitter™ e Facebook non sono coperti dai termini di Creative Commons.

Note legali   |   Informativa sulla privacy online