Videoformate und Einstellungen kennenlernen

Welches Format ist für die Aufnahme und Speicherung deines Videos am besten geeignet? Wie wirken sich Bildfrequenz und Komprimierungseinstellungen wie Long GOP auf die mögliche Aufnahmezeit aus? Hier findest du alles über Videoformate und Aufzeichnungsoptionen.

Genauso wie du ein Standbild als JPEG-, HEIF- oder RAW-Datei speichern kannst, gibt es auch mehrere Dateiformatoptionen für das Speichern von Videodateien. Allerdings gestaltet sich die Sache bei Videoformaten etwas komplizierter, da es mehr Variablen gibt. Im Folgenden werden die gebräuchlichsten Videoformate erklärt und die entsprechenden Menüoptionen erläutert.

Im Gegensatz zu Bilddateien haben Videodateien mehrere Komponenten, darunter einen Codec und einen Container. Der Codec ist eine Software zur Codierung und Decodierung von Videodateien bei der Aufnahme und Wiedergabe. Er ist das Pendant zu den Komprimierungsalgorithmen, die für Bilddateien verwendet werden. Die meisten Codecs werden als „verlustbehaftet“ beschrieben, da bei der Komprimierung der Daten zur Platzersparnis ein Teil der ursprünglichen Videodaten verloren geht.

Der Container oder Wrapper bündelt die Bild- und Audiodaten des Videos zusammen mit den Untertiteln und anderen Metadaten. Der Container verhält sich wie eine einzelne Datei, und wenn allgemein von Videodateiformaten die Rede ist, sind in der Regel Container-Dateiformate wie MP4 oder XF-AVC gemeint. Wenn du allerdings ein Videoformat im Menü deiner Kamera auswählst, wählst du in der Regel eine Kombination aus Container und Codec, wie z. B. MP4 (HEVC) oder MP4 (H.264), nicht nur MP4.

Zwar ist das Speichern von RAW-Videos möglich, und manche Kameras bieten diese Option auch an, aber RAW-Videodateien sind enorm groß. Beim Filmen mit 25 Bildern pro Sekunde bedeutet dies, dass für jede Sekunde Video 25 RAW-Dateien gespeichert werden, was die Datenbandbreite und die Schreibgeschwindigkeit der Karte stark beansprucht und den Speicherplatz sehr schnell belegt.

Aus diesem Grund werden, genau wie bei Bilddateien, verschiedene Methoden eingesetzt, um die Größe von Videodateien zu reduzieren, damit man sie einfacher verarbeiten kann. Dazu gehören verschiedene Komprimierungsverfahren und Farbsampling-Systeme. Normalerweise kann man im Menü der Kamera unter Movie-Aufnahmegröße zwischen verschiedenen Komprimierungsmethoden wählen, das Farbsampling wird jedoch durch die Dateiformateinstellungen bestimmt. Sehen wir uns also die gebräuchlichen Videoformate an und gehen wir dann auf die sonstigen Einstellungen ein, die die Größe der Videodatei beeinflussen.

Eine Frau spaziert durch einen herbstlichen Wald, in der Hand eine Canon EOS C200 Videokamera.

Ganz gleich, ob du zum ersten Mal Videos aufnimmst oder einfach nur nicht sicher bist, welche Einstellungen für deine Aufgabe am besten geeignet sind: Ein umfassendes Know-how in Bezug auf Videoformate und -optionen wird dir helfen, bei deiner Arbeit die beste Wahl zu treffen.

Welche verschiedenen Videoformate gibt es?

Im Folgenden zeigen wir die branchenüblichen Videoformate, die auf modernen Canon Kameras verfügbar sind (wobei nicht alle bei jedem Modell verfügbar sind):

  • MP4 (H.264): MP4 ist ein Container-Dateiformat, daher gibt es auch verschiedene MP4-Varianten. H.264 (oder AVC) ist der heute am häufigsten verwendete Videokomprimierungscodec für digitale Videos, insbesondere für Streaming Services. Diese Dateien können auf fast jedem Gerät wiedergegeben werden.
  • MP4 (HEVC): HEVC steht für High Efficiency Video Coding. Dieser Codec, auch H.265 genannt, bietet eine um 50 % bessere Komprimierungseffizienz als H.264, wodurch kleinere Dateien erzeugt werden und beim Streaming weniger Bandbreite benötigt wird. Zudem ist dieser Codec der erste, der eine 8K-Auflösung unterstützt.
  • XF-AVC: Dies ist ein Dateiformat, das von Canon speziell für 4K DCI- oder 4K-UHD-Aufnahmen entwickelt wurde. Es eignet sich für professionelle Workflows und wird von kreativen Köpfen für die Aufnahme von hochauflösenden Aufnahmen verwendet. Die Dateinamenerweiterung lautet .MXF.
  • RAW: Ähnlich wie bei der Aufnahme von RAW-Fotos bieten einige Canon Kameras die Möglichkeit, Videos im RAW-Format aufzunehmen. RAW-Dateien enthalten alle Farb- und Tonwertinformationen sowie Bilddetails, die vom Sensor erfasst wurden. Dies ist insbesondere bei der Nachbearbeitung sehr nützlich, da mehr Gestaltungsspielraum zur Verfügung steht. Videofilmer schätzen dies vor allem für die Abbildung des größtmöglichen Dynamikumfangs eines Motivs, wodurch in der Nachbearbeitung sowohl die Überbelichtungsdetails als auch die Schattendetails optimal genutzt werden können.
  • Cinema RAW Light: Filmen im RAW-Format hat enorme Vorteile, aber die Herausforderung besteht in der enormen Größe der Dateien, die den Workflow beeinträchtigen kann. Hier bietet sich Canon Cinema RAW Light an, das mit der Canon EOS C200 Videokamera eingeführt wurde. Dieses Format bietet einen enormen Dynamikumfang, reduziert aber die Dateigröße drastisch. Die Dateinamenerweiterung lautet .CRM.
  • MOV ist ein alternatives Containerformat, das sich für die Bearbeitung der Aufnahmen am Computer eignet. MOV-Dateien bieten eine hohe Qualität mit ausgezeichneten Codec-Optionen, darunter verschiedene verlustbehaftete und verlustfreie ProRes-Codecs für hochauflösende Aufnahmen. Allerdings können die Dateien sehr groß sein. Einige Canon DSLRs unterstützen die Aufnahme von Videos im MOV-Format, aber wenn du eine moderne spiegellose Canon Kamera, eine Cine-Kamera oder einen Camcorder verwendest, kannst du andere Formate für die Aufnahme nutzen und bei Bedarf für die Nachbearbeitung in MOV transkodieren oder deine Aufnahmen für die Auslieferung als MOV exportieren, sollte dieses Format vorgeschrieben sein.
  • Manchmal ist es auch erforderlich, in andere Formate wie WMV (Windows Media Video Format) zu exportieren. Das Aufzählen aller möglichen Kombinationen von Nachbearbeitungs- und Lieferungsworkflows würde hier jedoch den Rahmen sprengen.

Die Canon EOS R5 C wird in der Hand gehalten, während auf dem Menübildschirm eine Option für das Filmaufnahmeformat ausgewählt wird.

Die Canon EOS R5 C bietet eine umfassende Auswahl verschiedener Videoformate für die Aufnahme, von mehreren RAW-Formaten bis hin zu MP4 (H.264). Das Menü Hauptaufnahmeformat enthält auch Informationen zur Farbtiefe und zum Chroma Subsampling-Verfahren der meisten Formate. Im Folgenden erfährst du alles darüber.

Die Rückseite einer Canon Kamera mit den Menüoptionen für die Movie- Aufnahmegröße.

Neben der Wahl des Videoformats bieten Canon Kameras im Menü Movie-Aufnahme- größe eine Reihe von Einstellungen, die die Qualität der aufgezeichneten Videos und die resultierende Dateigröße bestimmen. Auf dem Bildschirm wird außerdem die Gesamtaufnahmedauer angezeigt, die bei den gewählten Einstellungen erreicht werden kann.

Aufnahmegröße, Bildfrequenz und Komprimierung

Wir haben bereits erwähnt, dass es bei den Videoformaten viele Variablen gibt. Neben der Auswahl eines Codecs und eines Containerformats gibt es eine Reihe von Einstellungen, die die Qualität deines Videos und die daraus resultierenden Dateigrößen bestimmen, die wiederum die mögliche Aufnahmedauer auf deiner Speicherkarte beeinflussen.

Im Kameramenü lassen sich unter Movie Aufnahme- größe drei wichtige Vorgaben einstellen:

  • Aufnahmegröße: Dies entspricht der in der Fotografie üblichen Auflösung, d. h. der Anzahl der Pixel in jedem Bild. Übliche Einstellungen sind:
    • 4K DCI (4K-D in Menüs): 4096 x 2160 Pixel.
    • 4K UHD (4K-U in Menüs): 3840 x 2160 Pixel.
    • Full HD (FHD in Menüs): 1920 x 1080 Pixel.
  • Für andere Kameras, vor allem für professionelle Videokameras, stehen andere Optionen zur Verfügung, darunter 8K DCI (8192 x 4320) und 8K UHD (7680 x 4320) für die Canon EOS R5 und EOS R5 C. Wie nicht anders zu erwarten, entstehen beim Filmen in 4K größere Dateigrößen als beim Filmen in Full HD, wobei die übrigen Einstellungen gleich sind. Normalerweise würde man jedoch einfach die Bildgröße wählen, die zu den geplanten Ausgabeanforderungen passt, oder man nimmt mit der besten verfügbaren Auflösung auf und passt die Größe für die spätere Ausgabe an, je nachdem, welche Nachbearbeitungsoptionen einem zur Verfügung stehen.
  • Bildfrequenz: Hier wird festgelegt, wie häufig Videobilder aufgezeichnet werden, ausgedrückt in Bildern pro Sekunde (B/s). Die hier verfügbaren Optionen hängen davon ab, was in den allgemeinen Einstellungen unter Videosystem ausgewählt wurde: PAL (Europa) oder NTSC (Nordamerika und Japan). Die Standard-Bildfrequenz beträgt 25 Bilder pro Sekunde bei PAL oder etwa 30 Bilder pro Sekunde bei NTSC. Aufnahmen, die mit 50/60 Bildern pro Sekunde gemacht wurden, können in der Nachbearbeitung bei der Wiedergabe auf eine Zeitlupe mit halber Geschwindigkeit, also mit 25/30 Bildern pro Sekunde, verlangsamt werden. Bei einigen Kameras sind höhere Bildfrequenzen wie 100/120 Bilder pro Sekunde oder mehr möglich, um Superzeitlupeneffekte bei der Wiedergabe mit Standard-Bildfrequenzen zu erzielen. Die meisten der verfügbaren Einstellungen enden auf p, wie z. B. 50p, manche enden auf i, wie z. B. 50i oder 59.94i. Das p steht für Progressiv und das i für Interlaced (Zeilensprungverfahren). Beim Zeilensprungverfahren aktualisiert ein Bildschirm abwechselnd die Zeilen des Bildes auf dem Bildschirm – zuerst die geraden Zeilen, dann die ungeraden Zeilen, dann wieder die geraden Zeilen und so weiter. Dies geschieht so schnell (in der Regel 30 Mal pro Sekunde oder öfter), dass das Auge ein vollständiges Bild wahrnimmt, obwohl jedes Feld technisch gesehen nur die Hälfte der Bilddetails enthält. Alle modernen Computerbildschirme und Fernsehgeräte sowie Videos im Internet verwenden die progressive Abtastung, bei der jedes Videobild das gesamte Bild enthält. Früher wurden Videos jedoch standardmäßig im Zeilensprungverfahren übertragen, da dies auch bei eingeschränkter Bandbreite eine höhere optische Auflösung ermöglicht. Heutzutage ist 50i immer noch der Übertragungsstandard in Europa, aber Broadcast-Video kann entweder im Zeilensprungverfahren oder im progressiven Verfahren übertragen werden. (Moderne Bildschirme lösen das Zeilensprungverfahren bei eingehenden Zeilensprung-Signalen automatisch auf.) Dein Video wird heute in der Regel mit progressiven Einstellungen aufgenommen und in das Zeilensprungverfahren konvertiert, wenn dies das vorgeschriebene Übertragungsformat ist. Wenn du ein Zeilensprungverfahren verwendest, beachte, dass die angegebene Zahl der halben Bildrate entspricht und die Bildfrequenz die Hälfte dieser Zahl ist, d. h. 50i entspricht 25 B/s und 59,94i entspricht 29,97 B/s.
  • Komprimierungsmethode: Neben dem Codec, der für die Kodierung und Dekodierung des Videos verwendet wird, kann oft auch eine Komprimierungsmethode ausgewählt werden. Diese legt nicht den verwendeten Codec oder die Art der Komprimierung fest, sondern gibt an, wie der Codec angewendet werden soll:
    • All-I: Das I steht für Intraframe, und bei dieser Methode wird jedes einzelne Bild nacheinander komprimiert. Diese Methode erzeugt zwar nicht so kleine Dateigrößen wie die sonstigen verfügbaren Methoden, liefert aber potenziell eine bessere Qualität, was insbesondere für die Bearbeitung ideal ist. Da mehr Daten vorhanden sind, vertragen die Dateien eine umfangreichere Nachbearbeitung.
    • IPB (Standard): Bei dieser Methode, die auch als GOP (Group of Pictures) bezeichnet wird, wird ein Schlüsselbild (das I-Frame) analysiert und anstatt der vollständigen Daten werden für jedes Bild nur die Unterschiede zwischen den Bildern aufgezeichnet. Hierfür stehen zwei Methoden zur Verfügung: P-Frames (Predicted Frames), die aufzeichnen, was sich im Vergleich zum vorherigen Bild geändert hat, und B-Frames (Bi-directional Predicted Frames), die sich auf die Daten sowohl des vorherigen als auch des nachfolgenden Bildes beziehen können. Auf jeden I-Frame kann eine variable Anzahl von P- und B-Frames folgen. Je nachdem, wie viele Daten zwischen den Bildern unverändert bleiben, kann diese Methode zu erheblichen Einsparungen bei der Dateigröße führen.
    • IPB (Light): Diese Methode beruht auf denselben Prinzipien wie IPB (Standard), zeichnet das Video jedoch mit einer niedrigeren Bitrate auf (mehr dazu in Kürze). Dadurch erhält man kleinere Dateien und die Wiedergabekompatibilität ist höher.
    • Long GOP: Dies bezieht sich im Allgemeinen auf eine erweiterte Gruppe von Bildern (mehr als 15 Bilder). Long GOP ist der bei Cinema EOS-Kameras übliche Begriff für die Interframe-Komprimierungsmethode; bei EOS-Hybridkameras ist der übliche Begriff IPB. Die Verfahren sind im Grunde identisch, unterscheiden sich aber in der Anzahl der Bilder im GOP: Long GOP hat mehr P- und B-Bilder zu einem I-Bild, was zwar zu kleineren Dateien aber auch zu einer schlechteren Videoqualität führt, wobei dies bei niedrigeren Auflösungen nicht allzu sehr auffällt.

Eine Darstellung der Farbunterabtastung (Chroma Sub-Sampling) zeigt die Luma- und Chroma-Komponenten, die in den Verhältnissen 4:4:4, 4:2:2 bzw. 4:2:0 gesampelt werden.

Chroma Sub-Sampling ist eine Technik zur Verringerung der Dateigröße, bei der einige Farbdaten weggelassen werden, während die Luminanz- oder Helligkeitsdaten erhalten bleiben. Das Verfahren wird mit verschiedenen Begriffen wie YCC, YCbCr und YUV bezeichnet, funktioniert aber im Wesentlichen wie dargestellt. Das Verhältnis 4:4:4 bedeutet, dass in einem Block von acht Pixeln (4x2) die Luma- und Chroma-Informationen (Luminanz und Farbe) für alle Pixel erhalten bleiben. Das Verhältnis 4:2:2 bedeutet, dass alle Pixel Luma-Informationen, aber nur 2 in der ersten und 2 in der zweiten Reihe Chroma-Informationen enthalten, die dann einfach auf die benachbarten Pixel kopiert werden. Das Verhältnis 4:2:0 bedeutet, dass 2 Pixel in der ersten Reihe, aber keine in der zweiten Chroma-Informationen enthalten, die wiederum auf benachbarte Pixel kopiert werden (in diesem Fall auf beide Reihen).

Eine größere Darstellung des Chroma Sub-Samplings zeigt die Luma- und Chroma-Komponenten, die in den Verhältnissen 4:4:4, 4:2:2 bzw. 4:2:0 gesampelt werden.

Chroma-Sub-Sampling im größeren Format betrachtet. Die Farbdetails werden von 4:4:4 (nicht abgetastet) auf 4:2:0 (mittlere Spalte, von oben nach unten) deutlich vereinfacht, aber da die Luma-Informationen erhalten bleiben, gehen nicht so viele Details verloren, wie man vielleicht vermuten würde (rechte Spalte).

Sonstige Faktoren, die die Dateigröße und die Aufnahmezeit beeinflussen

Die von uns betrachteten Vorgaben wirken sich alle auf die Größe der Videodatei und damit auf die Dauer des Films aus, den du auf einer Speicherkarte mit einer bestimmten Kapazität aufnehmen kannst. Es gibt jedoch noch weitere Faktoren, die sich auf die Größe der Videodatei auswirken: Farbtiefe, Bitrate und Chroma-Subsampling. Diese können normalerweise nicht direkt bei der Aufnahme eingestellt werden, sondern werden durch das gewählte Dateiformat und die Auflösung (Aufnahmegröße) bestimmt.

Farbtiefe

Wie bei Standbilddateien handelt es sich um die Anzahl der Bits digitaler Daten, die zum Speichern der Tonwert- und Farbinformationen jedes Pixels zugeteilt werden. Eine höhere Farbtiefe bedeutet, dass mehr Tonwert- und Farbdetails aufgezeichnet werden können, was weichere Tonwertabstufungen und genauere Anpassungen bei der Bearbeitung ermöglicht. Mit der Farbtiefe steigt jedoch auch die Dateigröße. RAW-Videodateien haben entweder 12 oder 10 Bit, XF-AVC und MP4 (HEVC) sind 10-Bit-Formate und MP4 (H.264) hat 8 Bit. Im Zusammenhang mit Videos wird die Farbtiefe manchmal auch als Farbintensität bezeichnet, um Verwechslungen mit dem folgenden Begriff zu vermeiden.

Bitrate

Auch als Datenrate bezeichnet, handelt es sich dabei um die Menge an Daten, die in einer Sekunde aufgezeichnet (oder wiedergegeben) wird, was sowohl die Videoqualität als auch die Dateigröße beeinflusst. Bei Videos wird sie in der Regel in Megabit pro Sekunde (Mbit/s oder Mbps) angegeben. Bei der EOS R3 kann die Bitrate beispielsweise bis zu 2.600 Mbps betragen (bei der Aufnahme von RAW-Videos mit 50 Bildern pro Sekunde in 6K-Auflösung); beim Filmen in 4K-DCI-Auflösung mit 25 Bildern pro Sekunde unter Verwendung von XF-AVC mit All-I-Komprimierung kann die Bitrate etwa 470 Mbps betragen.

In deinem Handbuch findest du eine Tabelle mit den Bitraten bei verschiedenen Einstellungen, den daraus resultierenden Dateigrößen und den ungefähren Aufnahmezeiten. So kannst du die am besten geeigneten Einstellungen für deine Aufnahme herausfinden, die Anzahl der erforderlichen Speicherkarten ausrechnen, und – was ganz entscheidend ist – sicherstellen, dass du Karten mit einer ausreichend hohen Schreibgeschwindigkeit verwendest, um die Datenrate zu bewältigen.

Außerdem ist für Videodateien mit hohen Bitraten eine schnelle Internetverbindung erforderlich. Manche Videos können daher nicht auf mobilen Geräten abgespielt werden. Für YouTube wird zum Beispiel die Verwendung von 4K-Aufnahmen mit 24 Bildern pro Sekunde mit 44-56 Mbps empfohlen. Dies muss bei der Codierung deiner Aufnahmen berücksichtigt werden. Außerdem wird häufig ein Verfahren namens VBR (variable Bitrate) verwendet, um die Dateigrößen für die Codierung und das Streaming zu minimieren. Einige Camcorder verwenden VBR für die Aufnahme, aber in den meisten Fällen wird dies eher in der Nachbearbeitung als bei der Aufnahme relevant.

Chroma-Subsampling

Das menschliche Auge reagiert empfindlicher auf Helligkeit als auf Farbe. Daher ist es möglich, die Farbdaten (Chroma) in einem Video zu komprimieren, ohne dass die Bildqualität spürbar beeinträchtigt wird, vorausgesetzt, die Helligkeitsinformationen (Luminanz oder Luma) bleiben erhalten. Dies geschieht mit Hilfe eines Sampling-Verfahrens: Anstatt die Farbe jedes einzelnen Pixels zu erfassen, zeichnet der Algorithmus die Farbe einer bestimmten Anzahl von Pixeln innerhalb eines Blocks auf, der in der Regel aus zwei Reihen mit je vier Pixeln besteht. Das Sampling wird als Verhältnis ausgedrückt, z. B. 4:2:2 oder 4:2:0.

Ein Verhältnis von 4:4:4 bedeutet, dass es kein Sub-Sampling gibt. Die erste Zahl gibt die Größe des Samples an, in diesem Fall 4 Pixel, was der Anzahl der Pixel in jeder Zeile mit Luma-Informationen entspricht. Die nächste Zahl gibt an, wie viele Pixel in der oberen Reihe Chroma-Informationen enthalten (in diesem Fall alle vier), und die letzte 4 bedeutet, dass alle vier Pixel in der unteren Reihe Chroma-Informationen enthalten. Ein Verhältnis von 4:2:2 bedeutet, dass nur zwei Pixel in der ersten Reihe und zwei in der zweiten Reihe Chroma-Informationen enthalten. Somit wird in dem Block aus acht Pixeln jedes Pixelpaar in jeder Reihe als dieselbe Farbe dargestellt, so dass nur halb so viele Farbdaten gespeichert werden müssen. Ein Verhältnis von 4:2:0 bedeutet, dass nur zwei der vier Pixel in der obersten Reihe Chroma-Informationen enthalten und keine in der zweiten Reihe, d. h., die oberste Reihe wird durch nur zwei Farben repräsentiert und die untere Reihe spiegelt dies einfach wider, so dass aus dem Block von acht Pixeln ein Block mit zwei Farben geworden ist.

Durch dieses Sampling werden die Farben im Bild deutlich vereinfacht, aber es sind immer noch Luma-Informationen für jedes Pixel enthalten, so dass die Bilddetails nicht spürbar beeinträchtigt werden. Wie bei der Komprimierung gibt es auch bei den verschiedenen Verhältnissen Vor- und Nachteile: 4:2:0 spart zwar viel Platz auf der Speicherkarte, aber es stehen auch weniger Farbinformationen zur Verfügung, was zu Problemen führen kann, wenn man mit farbkritischen Verarbeitungstechniken wie „Green Screen“ arbeitet. Hier noch ein weiterer Aspekt, der bei der Wahl des Dateiformats zu berücksichtigen ist: XF-AVC und MP4 (HEVC) verwenden 4:2:2, während MP4 (H.264) 4:2:0 verwendet.

Ein Standbild eines ohne Farbkorrektur mit Canon Log aufgenommenen Videos, das ein an einem Steg festgemachtes Boot mit Vegetation im Hintergrund zeigt, wirkt verwaschen und kontrastarm.

Die Canon Log-Profile ermöglichen ein Video mit maximalem Dynamikumfang, allerdings sind Kontrast und Sättigung der Aufnahmen direkt aus der Kamera schlecht und müssen nachbearbeitet werden.

Dieselbe Szene eines Bootes, das an einem Steg festgemacht ist, aufgenommen mit Canon Log, nach der Farbkorrektur und mit deutlich satteren Farben und Tönen.

Nach der Farbkorrektur sind die Farben und Töne viel intensiver. Canon Log Aufnahmen enthalten mehr Tonwertinformationen, die in der Nachbearbeitung für einen wesentlich größeren Tonwertumfang zwischen den dunkelsten und hellsten Bereichen genutzt werden können.

Canon Log verwenden

Wie wir gesehen haben, können unterschiedliche Dateiformate, Farbsampling- oder Komprimierungsmethoden und zahlreiche sonstige Einstellungen die Menge der in einem Video erfassten Informationen beeinflussen. Außerdem haben wir festgestellt, dass das menschliche Auge besonders empfindlich auf Helligkeitsinformationen reagiert. Das bedeutet, dass die Optimierung des Dynamikumfangs der Aufnahmen wohl der wichtigste Faktor für die wahrgenommene Qualität des Endprodukts ist. Aus diesem Grund bietet Canon eine zusätzliche Einstellung an, bei der eine logarithmische Tonwertkurve angewendet wird, um so viele Details wie möglich in einer Videodatei mit überschaubarer Größe zu erhalten. Dies unterscheidet sich vom Videodateiformat und anderen Einstellungen, die wir uns angesehen haben. Canon Log ermöglicht das Speichern von Aufnahmen mit besonders großem Dynamikumfang, geringem Rauschen und einem großen Belichtungsspielraum für einfache Belichtungskorrekturen, z. B. bei der Wiederherstellung von Details in einem leicht überbelichteten Himmel.

Canon Log wurde 2011 mit der EOS C300 eingeführt (die inzwischen von der EOS C300 Mark III abgelöst wurde), und viele Canon Kameras bieten inzwischen ein oder mehrere Canon Log-Profile. Unabhängig davon, welche Version verwendet wird, haben die Bilder aus der Kamera einen geringen Kontrast und eine geringe Sättigung, was bedeutet, dass hier eine Nachbearbeitung erforderlich ist. Dies kann manuell oder durch die Anwendung einer Look-Up-Tabelle (LUT) erfolgen, was den Prozess sehr schnell und einfach macht. Für Workflows, bei denen selbst das nicht möglich ist, etwa bei kurzen Abgabefristen im Broadcast-Bereich, bieten die Kameras Non-Log-Profile wie BT.709, PQ und HLG an. Damit können Benutzer einen bestimmten Look für ihre Aufnahmen erzielen, ohne sie nachbearbeiten zu müssen.

Das Menü „Custom Picture" (Benutzerdefinierte Bildeinstellungen) einer Kamera, wobei Canon Log 3 aus einer Reihe von Optionen wie Canon Log 2, BT.709 Wide DR, PQ und HLG ausgewählt werden kann.

Häufig bieten Kameras mehr als eine Canon Log-Variante sowie eine Auswahl weiterer Profile – wie in diesem Fall BT.709 Wide DR, PQ und HLG – mit denen du ohne die für Canon Log erforderliche Nachbearbeitung die gewünschten Effekte für deine Aufnahmen erzielen kannst.

Ein Bild einer Frau auf einem Monitor, wobei die linke Hälfte des Bildes einen geringen Kontrast und eine geringe Sättigung aufweist, während die rechte Hälfte klarer und heller ist.

Mit den Canon Log-Profilen haben Videofilmer mehr Spielraum bei der Nachbearbeitung von Aufnahmen.

Welches ist das optimale Videoformat?

Welches Videodateiformat das beste ist, hängt davon ab, wie du die Aufnahmen verwenden möchtest, denn je nach Auftrag werden bestimmte Formate bevorzugt. So wird beispielsweise H.264 häufig als Codec für das Web-Streaming verwendet, da das Format eine gute Balance zwischen Effizienz und Kompatibilität bietet. Wenn du dein Video auf Webplattformen wie YouTube oder Facebook mit anderen Benutzern teilen möchtest, solltest du deine Aufnahmen als MP4 (H.264)-Datei und nicht als MOV-Datei exportieren, um eine geringere Dateigröße und eine für das Streaming geeignete Videoqualität zu erhalten.

Manchmal hängt die Wahl des Videodateiformats auch von den Aufnahmebedingungen ab. Wenn du zum Beispiel 4K aufnimmst, aber der Platz auf der SD-Karte knapp wird, kannst du von 4K 50p Standard IPB zu 4K 50p Light IPB wechseln, wodurch sich die mögliche Aufnahmezeit auf einer Speicherkarte mit der gleichen Kapazität verdoppelt.

Alle Dateiformate zielen darauf ab, ein ausgewogenes Verhältnis zwischen Bildqualität und Dateigröße (und damit Aufnahmedauer) zu erreichen, aber unter extremen Umständen kann es angebracht sein, dieses Verhältnis zugunsten eines stärker komprimierten Formats zu korrigieren, selbst auf Kosten einer geringeren Bildqualität.

Ein weiterer Anwendungsfall könnte sein, dass die zur Verfügung stehende Software und Hardware für die Nachbearbeitung Einschränkungen mit sich bringen. Ein langsamer Laptop zum Beispiel hat möglicherweise Probleme, hochauflösendes 4K 50p-Material zu rendern. Wenn du aber weißt, dass du auf einen niedrigeren Codec oder sogar auf eine niedrigere Auflösung wie Full HD zurückgreifen kannst, sofern es wirklich nötig ist, kannst du dein Video ohne Probleme bearbeiten – natürlich unter der Voraussetzung, dass die Qualität des finalen Videos immer noch dem erforderlichen Standard entspricht.

Ein Anwender hält eine Canon EOS R5 C in der Hand und steckt eine Karte in einen der beiden Kartensteckplätze.

Kameras mit zwei Kartensteckplätzen, wie die hier gezeigte EOS R5 C, sind in der Lage, hochauflösende Videos auf beiden Karten aufzuzeichnen.

Die Rückseite einer Canon EOS R5 C auf einem Stativ mit dem Menübildschirm „2nd Card Rec Functions“ (Aufnahmefunktionen 2. Karte).

Die verfügbaren Formate variieren je nach Kamera und Kartensteckplatz, aber die EOS R5 C und andere Kameras mit High-Speed-Kartenunterstützung verfügen über die Möglichkeit, gleichzeitig ein Backup oder einen Proxy mit geringerer Auflösung aufzunehmen.

Best Practice bei Videos

Erfahrene Videofilmer wenden verschiedene Techniken und Arbeitsabläufe an, um unterschiedliche Anforderungen an ihr Video zu erfüllen. So werden beispielsweise Proxy-Dateien erstellt, wenn sie ihre Aufnahmen mit Software wie Media Encoder bearbeiten. Dabei wird eine niedrig aufgelöste Version der Datei erzeugt, um den Computer zu entlasten und eine effizientere Bearbeitung zu ermöglichen. Die Bearbeitungen werden dann beim Export auf die hochauflösende Datei angewendet.

Bei einigen Kameras, z. B. der Canon EOS C70 Kinokamera und dem XF605 Profi-Camcorder, kann man die Vorteile der beiden SD-Kartensteckplätze nutzen, um nicht nur umgehend ein Backup der Aufnahmen zu erstellen, sondern auch gleichzeitig eine Proxy-Version oder eine Version mit geringerer Auflösung auf der zweiten Karte aufzuzeichnen. Bei der EOS C70 und der EOS R3 kann man dank der Steckplätze für High-Speed-Karten RAW-Aufnahmen auf einer Karte und gleichzeitig MP4-Aufnahmen auf der anderen Karte speichern.

Nachdem du deine Aufnahmen auf den Computer hochgeladen hast, mag es verlockend sein, die Masterdateien mit einer Software wie Handbrake zu komprimieren, um Platz auf der Festplatte zu sparen. Allerdings wird dadurch die Qualität beeinträchtigt, wenn du die Dateien später bearbeiten möchtest.

Matty Graham and Alex Summersby

Ähnliche Artikel

Professionelle Filmbegriffe, die du kennen solltest

Du möchtest von Einzelbildern auf Videos umsteigen? In unserem Glossar findest du 32 Profi-Videobegriffe von Canon Log bis Wide DR, damit du bestens vorbereitet deine ersten Schritte wagen kannst.

Kreative Farben: Wie Canon Log das Filmemachen optimiert

Filmemacher Ivan D'Antonio beschreibt, wie er Canon Log nutzt, um das Beste aus seiner Kamera herauszuholen, seine Aufnahmen zu verfeinern und seine persönliche Vision zu verwirklichen.

Alles über das RF Bajonett

Das RF Objektivbajonett ist das Herzstück des EOS R Systems von Canon. Hier erfährst du mehr zu den vielen Innovationen und konstruktiven Verbesserungen, die damit möglich wurden.

Bildformate (RAW, JPEG, HEIF) und Komprimierung

Erfahre mehr über die verschiedenen Bildformate – RAW, C-RAW, HEIF und JPEG –, Farbtiefe, Dateigrößen und verschiedene Arten der Bildkomprimierung.

Holen Sie sich den Newsletter

Klicken Sie hier, um inspirierende Geschichten und interessante Neuigkeiten von Canon Europe Pro zu erhalten.