Bei der Aufnahme von Video- und Audioclips in einem digitalen Format muss die Qualität mit der Dateigröße und Bitrate abgestimmt werden. Bei den meisten Dateiformaten werden Dateigröße und Bitrate über die Komprimierung reduziert, wobei auch die Qualität verringert wird. Mit Komprimierung lässt sich die Größe von Filmen reduzieren, damit sie gespeichert, übertragen und effektiv wiedergegeben werden können.

Wenn Sie eine Filmdatei exportieren, die auf einem bestimmten Gerätetyp mit einer bestimmten Bandbreite wiedergegeben werden soll, müssen Sie zunächst einen Encoder (Codec) wählen. Verschiedene Encoder verwenden unterschiedliche Komprimierungsverfahren zur Komprimierung der Informationen. Jeder Encoder verfügt über einen entsprechenden Decoder, der die Daten dekomprimiert und für die Wiedergabe interpretiert.

Codecs sind in großer Auswahl verfügbar, weil kein Codec die Ideallösung für alle Anforderungen darstellt. So eignen sich beispielsweise Codecs, mit denen sich bei Zeichentrickfilmen ausgezeichnete Komprimierungsergebnisse erzielen lassen, oft nur bedingt für realitätsnahe Videoaufnahmen.

Die Komprimierung kann verlustfrei (es werden keine Bilddaten ausgelassen) oder verlustreich (bestimmte Bilddaten werden ignoriert) erfolgen.

Über das Dialogfeld „Exporteinstellungen“ können Sie viele der Faktoren steuern, die die Komprimierung und andere Aspekte der Codierung beeinflussen. Siehe Codieren und Exportieren.

John Dickinson stellt auf der Adobe-Website eine Videoschulung zur Verfügung, die die Verwendung von Adobe Media Encoder für After Effects und Premiere Pro demonstriert.

Weitere Informationen zu Codierungs- und Komprimierungsoptionen finden Sie in folgendem FAQ-Eintrag: „FAQ: What is the best format for rendering and exporting from After Effects? (Welches Format eignet sich am besten für das Rendern und Exportieren aus After Effects?)“

Zeitliche und räumliche Komprimierung

Die beiden allgemeinen Komprimierungskategorien für Video- und Audiodaten sind räumlich und zeitlich. Bei der räumlichen Komprimierung werden die Daten jedes einzelnen Frames unabhängig von den vorhergehenden oder nachfolgenden Frames komprimiert. Die räumliche Komprimierung wird häufig als Intraframe-Komprimierung bezeichnet.

Bei der zeitlichen Komprimierung werden die Inhalte der aufeinanderfolgenden Frames analysiert und nur die Unterschiede gespeichert, sodass die einzelnen Frames anhand ihrer Abweichungen gegenüber dem jeweils vorhergehenden Frame beschrieben werden. Unveränderte Bildbereiche werden lediglich von den vorhergehenden Frames wiederholt. Die zeitliche Komprimierung wird häufig als Interframe-Komprimierung bezeichnet.

Bitrate

Die Bitrate (Datenrate) wirkt sich auf die Qualität eines Videoclips und auf die Zielgruppe aus, die die Daten aufgrund ihrer Bandbreitenbeschränkungen herunterladen kann.

Wenn Sie Videos über das Internet bereitstellen, erstellen Sie Dateien mit niedrigeren Bitraten. Benutzer mit schneller Internetverbindung können die Dateien ohne oder mit nur geringer Verzögerung anzeigen, bei Benutzern mit einer langsamen Internetverbindung kann der Download jedoch geraume Zeit in Anspruch nehmen. Erstellen Sie kurze Videoclips, um die Downloadzeiten auf ein akzeptables Maß zu beschränken, wenn Sie glauben, dass eine Mehrzahl der Benutzer nur über eine langsame Internetverbindung verfügt.

Framerate

Ein Video ist eine Sequenz von Bildern, die in schneller Folge auf dem Bildschirm angezeigt werden, um die Illusion einer Bewegung zu erzeugen. Die Anzahl der Einzelbilder bzw. Frames, die pro Sekunde angezeigt werden, wird als Framerate bezeichnet und in Frames pro Sekunde (fps) angegeben. Je höher die Framerate, desto mehr Frames werden pro Sekunde in einer Bildsequenz angezeigt, sodass flüssigere Übergänge entstehen. Der Nachteil der höheren Qualität besteht aber darin, dass höhere Frameraten die Übertragung größerer Datenmengen erfordern, also eine höhere Bandbreite voraussetzen.

Bei digital komprimierten Videos steigt die Dateigröße mit der Höhe der Framerate. Um die Dateigröße zu verringern, reduzieren Sie entweder die Framerate oder die Bitrate. Wenn Sie die Bitrate verringern und die Framerate beibehalten, wird die Bildqualität beeinträchtigt.

Da die Wiedergabequalität von Videos mit der ursprünglichen Framerate (also der Framerate, mit der das Video aufgenommen wurde) am besten ist, empfiehlt Adobe, eine hohe Framerate beizubehalten, sofern die Bereitstellungskanäle und Wiedergabeplattformen dies zulassen. Verwenden Sie für Full-Motion-NTSC-Videos 29,97 fps und für PAL-Videos 25 fps. Wenn Sie die Framerate reduzieren, verringert Adobe Media Encoder die Framezahl linear. Wenn Sie die Framerate jedoch senken müssen, erzielen Sie mit einer gleichmäßigen Teilung die besten Ergebnisse. Hat die Quelle beispielsweise eine Framerate von 24 fps, verringern Sie die Framerate auf 12 fps, 8 fps, 6 fps, 4 fps, 3 fps oder 2 fps.

Bei Mobilgeräten sollten Sie die gerätespezifischen Codierungsvorgaben aus dem Vorgabenbrowser verwenden.

Hinweis:

Wenn Sie eine SWF-Datei mit einem eingebetteten Video erstellen, müssen der Videoclip und die SWF-Datei dieselbe Framerate aufweisen. Bei unterschiedlichen Frameraten kommt es zu einer ungleichmäßigen Wiedergabe.

Keyframes

Keyframes sind vollständige Videoframes (bzw. -bilder), die in gleichmäßigen Abständen in einen Videoclip eingefügt werden. Die Frames zwischen den Keyframes enthalten Informationen zu Veränderungen, die zwischen Keyframes auftreten.

Hinweis:

Diese Keyframes sind nicht identisch mit den Marken, die Animationseigenschaften zu bestimmten Zeitpunkten definieren und ebenfalls als Keyframes bezeichnet werden.

Adobe Media Encoder ermittelt standardmäßig das zu verwendende Keyframe-Intervall (Keyframe-Abstand) automatisch anhand der Framerate des Videoclips. Der Wert des Keyframe-Abstands teilt dem Encoder mit, wie oft das Videobild neu ausgewertet und ein vollständiger Frame oder Keyframe in einer Datei aufgezeichnet werden muss.

Wenn Ihr Videomaterial viele Szenenwechsel oder schnelle Bewegungen bzw. Animationen enthält, kann die Gesamtbildqualität möglicherweise durch einen niedrigeren Keyframe-Abstand verbessert werden. Ein geringerer Keyframe-Abstand entspricht einer größeren Ausgabedatei.

Wenn Sie den Keyframe-Abstand reduzieren, müssen Sie die Bitrate für die Videodatei erhöhen, um eine vergleichbare Bildqualität zu erhalten.

Bild-Seitenverhältnis und Framegröße

Wie die Framerate stellt die Framegröße einen wichtigen Faktor bei der Gewährleistung einer hochwertigen Videoqualität dar. Bei einer bestimmten Bitrate nimmt die Videoqualität ab, je größer das Bild dargestellt wird.

Beim Bild-Seitenverhältnis handelt es sich um das Verhältnis zwischen Breite und Höhe eines Bilds. Die häufigsten Bild-Seitenverhältnisse sind 4:3 (Standard-Fernseher) und 16:9 (Widescreen- und High-Definition-Fernseher).

Pixel-Seitenverhältnis

Die meisten Computergrafiken bestehen aus quadratischen Pixeln mit einem Pixel-Seitenverhältnis von 1:1 zwischen Breite und Höhe.

In einigen digitalen Videoformaten sind die Pixel nicht quadratisch. Ein standardmäßiges digitales NTSC-Video (DV) verfügt z. B. über eine Framegröße von 720 x 480 Pixeln und wird mit einem Seitenverhältnis von 4:3 angezeigt. Das bedeutet, dass die Pixel nicht quadratisch sind und über ein Pixel-Seitenverhältnis (Pixel Aspect Ratio, PAR) von 0,91 verfügen (ein hohes, schmales Pixel).

Halb- oder Vollbildcodierung bei Videos (interlaced bzw. noninterlaced)

Interlaced Videos bestehen aus zwei Halbbildern, die zusammen jeweils einen Videoframe bilden. Jedes Halbbild enthält die Hälfte der horizontalen Bildzeilen des Frames. Das obere Halbbild (Halbbild 1) umfasst alle ungerade nummerierten Bildzeilen und das untere Halbbild (Halbbild 2) umfasst alle gerade nummerierten Bildzeilen. Ein Interlaced-Videobildschirm (z. B. ein Fernsehbildschirm) zeigt jeden Frame an, indem er zuerst alle Bildzeilen eines Halbbilds und anschließend alle Zeilen des anderen Halbbilds zeichnet. Die Halbbild-Reihenfolge gibt an, welches Halbbild zuerst gezeichnet wird. Bei NTSC-Videos werden 59,94-mal in der Sekunde neue Halbbilder gezeichnet, was einer Framerate von 29,97 Frames pro Sekunde entspricht.

Noninterlaced-Videoframes werden nicht in Halbbilder unterteilt. Ein progressiver Scanning-Bildschirm (z. B. ein Computermonitor) zeigt einen Noninterlaced-Videoframe an, indem alle horizontalen Bildzeilen in einem Durchgang von oben nach unten gezeichnet werden.

Adobe Media Encoder führt vor dem Codieren ein Deinterlacing (Zusammenfügen von Halbbildern) für Videos durch, wenn Sie eine Quelle mit Interlaced-Material in eine Ausgabe mit Noninterlaced-Material codieren.

High-Definition-Video (HD)

High-Definition-Video (HD-Video) bezeichnet Videoformate mit Pixelabmessungen über denen von Standard-Definition-Video (SD-Video). Normalerweise bezieht sich Standard-Definition auf digitale Formate mit Pixelabmessungen, die ungefähr den Auflösungen analoger Fernsehstandards entsprechen, z. B. NTSC und PAL (ca. 480 bzw. 576 vertikale Linien). Die gängigsten HD-Formate haben Pixelabmessungen von 1280 x 720 oder 1920 x 1080 mit einem Bild-Seitenverhältnis von 16:9.

HD-Videoformate beinhalten Interlaced- und Noninterlaced-Varianten. In der Regel bestehen die Formate mit der höchsten Auflösung bei höheren Frameraten aus Zeilensprung-Halbbildern („Interlaced-Formate“), da für Noninterlaced-Video bei diesen Pixelabmessungen eine erheblich höhere Datenrate erforderlich wäre.

HD-Videoformate werden durch ihre vertikalen Pixelabmessungen, den Scanmodus und die Framerate oder Halbbild-Framerate (je nach Scanmodus) ausgewiesen. So bezeichnet 1080i60 beispielsweise das Interlaced-Scanning von 60 Halbbildframes mit 1920 x 1080 pro Sekunde und 720p30 das progressive Scanning von 30 Nicht-Halbbildframes mit 1280 x 720. In beiden Fällen beträgt die Framerate rund 30 Frames pro Sekunde.

Dieses Werk unterliegt den Bedingungen der Creative Commons Attribution-Noncommercial-Share Alike 3.0 Unported License.  Twitter™- und Facebook-Beiträge fallen nicht unter die Bedingungen der Creative Commons-Lizenz.

Rechtliche Hinweise   |   Online-Datenschutzrichtlinie