Chaos im Videobereich – Teil 1

Formate, Formate und tausende von Kürzeln und Fachwörter. Jeder will sein eigenes Format und selbst wenn ein Format gleich scheint, so funktioniert es vielleicht doch nicht, weil irgendwo, irgendwie was anderes gemacht wurde. Ich möchte in diesem Blog-Eintrag über Videoformate und bisschen Videotechnik reden, weil nicht zuletzt selbst ein paar technisch versierte Leute Probleme damit haben, sondern sich auch die Hersteller nicht entscheiden können was sie nutzen und machen wollen. Da jedoch das Thema Video so umfangreich ist, gehe ich hier nur auf ein paar Punkte ein und werde voraussichtlich noch einen weiteren (oder auch weitere) Artikel verfassen. In diesem Artikel will ich hauptsächlich über sogenannte Codecs und Container reden, den Unterschied von p und i klären und Wissen wertes über Bildraten schreiben.

Vorwort:

Ursprünglich dachte ich in meinen eigenen Anfängen, man könne anhand von Dateiendungen die Kompatibilität zu bestimmten Geräten, Programmen, etc. voraussagen und so das perfekte Gerät, Programm, etc. heraussuchen. Auch dachte ich, dass Auflösung so ziemlich das einzige ist, auf was ich in Videos achten muss. Im Grunde genommen stimmt das auch so, viele Programme haben voreingestellt Modi und meistens sind es auch sogenannte One-Click Programme. Damals habe ich bei meiner ersten Sony Fernseher mit USB feststellen müssen, dass es doch auf ein bisschen mehr ankommt. Denn am zweiten Sony Fernseher (der eigentlich neuer war) scheitertet es zunächst am Partitionierungstyp NTFS. Kein Problem FAT32 Sticks bekommt man auch schon nachgeworfen und sind auch nicht Gegenstand in diesem Artikel.

Vielmehr jedoch wurde mir erst klar, was für ein Chaos in der Videoindustrie herrscht als mir folgendes passierte:
Alle Videoclips in MP4 und schön in 1080p, also dachte ich mir testest nur das erste Video, der Rest sollte dann auch gehen. Erste Videodatei ging, somit geht der Rest. Sicher? Nein, denn bereits da stieß ich auf das Phänomen, dass mein drittes Video sich nicht abspielen lies. „Warum?“ stellt sich jetzt jeden normalen Menschen die Frage und genau da fing meine Recherche vor ein paar Jahren an und selbst bis heute, gibt es für mich die ein oder andere Sache in Bereich von Videos zum nach recherchieren.

1. Container und Codecs

Zunächst müssen wir uns mal anschauen, was MP4 ist. MP4 ist wie Matroska und AVI einer von vielen Container. Diese Container Formate beinhalten gebündelt Audio- und Videocodecs. Codecs benutzt man um das große unhandliche Rohformat-Video effizient zu verkleinern um Platz und Leistung auf einem System zu verbessern. Zum Kodieren nutzt man sogenannte Encoder und zum dekodieren Decoder, falls man zufällig eine „Programm“/Datei (oder auch library/Bibliothek genannt) hat, die beides gleichzeitig kann, wird dieser dann auch Codec genannt, was sich aus dem Zusammenschluss beider Worte enCOder und DECoder ergibt. Wie genau Videos komprimiert werden, ist je nach Codec unterschiedlich und vielleicht fasse ich dass in einem andere Artikel mal zusammen. Irrtümlich wird bei den meisten Leuten nicht zwischen den drei Arten unterschieden und deswegen nennen viele unwissende diese drei Arten einfach und schlichtweg Codecs, was sich heute auch bei einigen Kennern als Wort etabliert hat.

Damit man nicht zehntausende von Dateien für einen Film braucht wurden Container erfunden, die diese Audio- und Videodateien beinhalten, manchmal sogar gleich mehrere vom gleichen Typ (bspw. bei Audio für mehrere Sprachen) oder für Zusatzoptionen wie Untertitel. Container gibt es nicht nur im Videobereich, auch sind PDF-Dateien Container, die halt verschiedene Schriftarten, Bilder, den Text und weitere Bestandteile einer Textdatei beinhalten.

Nachdem das geklärt war ging ich auf Wikipedia und schaute mir welche Codecs von MP4 akzeptiert werden, folgende Liste kam dabei heraus und somit hatte sich dann das ganze geklärt gehabt, die Dritte Datei hatte aufgrund seines Alters MP2 als Audiocodec gehabt, dass bei dem einem Fernseher nicht mehr implementiert wurde:

  1. Video: MPEG-4 Part 2, MPEG-4 Part 10 (AVC/H.264), MPEG-2 Video und MPEG-1 Video
  2. Audio: AAC, MP3, MP2, MP1
  3. Bilder: JPEG, PNG
  4. Grafik und Text: BIFS (z. B. können Untertitel in dieses Format umgewandelt werden)

Quelle: https://de.wikipedia.org/wiki/MP4

Welches Format jetzt besser oder schlechter ist, darüber lässt sich streiten und ich kann nur empfehlen einen der großen Standards wie MP4, AVI oder MKV zu verwenden und je nach Videomaterial den am besten passendsten Encoder. Laut einigen Foren im Internet sei aktuell h.264 als Videocodec, sowie je nach Audio mp3 (Stereo) oder AC3 (Dolby Digital Mehrkanalaudio) mit AVI oder MKV als Container sehr beliebt. Jedoch sollte man hier je nach Geräte im Haushalt und die Art der Nutzung der Codecs und Container für sich selber das beste Format heraussuchen.

2. p oder i oder egal?

Immer wieder schön zusehen wenn bspw. die Mitarbeiter von gewissen Elektromarktgiganten vor lauter Unwissenheit, unwissende Kunden falsch belehren. Wer hat schon den Durchblick wenn der günstigere 1080i Fernseher die gleiche Auflösung hat wie der 1080p nämlich 1920×1080 Pixel. Hier will ich zunächst den Unterschied zwischen p und i erklären erklären. i steht für interlaced (in Deutschland auch als Zeilensprungverfahren bekannt) und dieses Verfahren stellt aus Effizienzgründen einfach jede zweite Zeile vom aktuellen Bild dar und jede andere zweite Zeile wird vom nächsten (oder letzten) Bild vervollständigt. Da die Bilder so schnell aufgebaut werden, hat man den Eindruck von einem vollen Bild, aber in Wirklichkeit sieht man jeweils nur zwei Halbbilder die ineinander geschoben werden. So lange das Bild langsam (oder gar nicht) bewegt gibt es keine großen Unterschiede zu den Vollbildern von p, was für progressive steht. Bewegt sich das Bild sehr schnell, wie bspw. in einem Action Film oder beim Sport, so sieht man beim genauen hinsehen Linienfragmente. Natürlich sieht man meistens an TV Geräten diese Linienfragmente nicht, sondern das Bild wird einfach hochgerechnet, unscharf und/oder herunterskaliert. In der Regel sieht man meisten nur am PC solche Linienfragmente, es kann aber auch vorkommen dass diese bei einem Fernsehr sichtbar werden können, wenn man bspw. das Bild von einem Computer bekommt oder der Fernseher nicht wie oben beschrieben ins Pseudovollbild konvertieren kann. Nebenbei sind am PC einige Wiedergabeprogramme, wie der VLC Mediaplayer (unter Video -> Deinterlace zu finden) bereits im Voraus mit Deinterlacing ausgestattet.

Interlaced war ursprünglich für die Röhrengeräte entwickelt worden, wird jedoch heute nur deswegen noch gebraucht, da die Bandbreiten immer noch nicht teilweise groß genug sind und man selbst mit aktuellen Kompressionsverfahren nicht genügend an Daten einsparen kann. Jedoch empfehle ich jeden aufgrund Leistungsbeschränkung kein Full HD kann, jedoch Full HD 1080p (1920×1080 Angabe im 16:9 Format) Aufnahmen hat, diese eher auf 720p (1280×720) als auf 1080i zu komprimieren, Vollbilder sind grundsätzlich schöner und die meisten Fernsehsender (bspw. ARD HD (720p/50)) handhaben es genauso.

3. Was bedeutet 1080p/24 oder nur 24p?

Die Zahlen hinter der Pixelhöhenangabe bedeutet wie viele Vollbilder pro Sekunde angezeigt werden. Bei der Zahl 24 bedeutet das folglich 24 Vollbilder pro Sekunde, was bei den Röhrenfernsehgeräten ~24 Hz entspricht. Meistens lassen sich aber die Leute von bspw. 50i blenden, doch was für interlaced 50 („Halb-„)Bilder pro Sekunde sind, entsprechen bei der Konvertierung in Progressive Scan (Mehr in Punkt 5) nur noch 25 („Voll-„)Bilder pro Sekunde ergeben, was in der Fachsprache als Deinterlacing bezeichnet wird. Ob nun mehr oder weniger Bilder pro Sekunde Sinn machen sind so eine Sache. In der Regel nutzt man aus Speichergründen am meisten 25p, jedoch Zeichnen viele Geräte im interlaced Format auf, was aber nicht schlimm ist, da sie in 50i Aufnehmen und man dann einfach eine Konvertierung in 25p tätigt. Viele Leute lassen sich auch noch von seltsamen Kommawerten wie 23,976p, was aber ein Überbleibsel aus der NTSC-Zeit ist und lediglich beim Überspielen alter analoger Medien genutzt wird. Optisch gesehen merkt man aber den Unterschied kaum.

4. Wie viele Bilder pro Sekunde sollte ich nehmen?

Überraschenderweise nimmt der Mensch erst 30 Bilder pro Sekunde flüssig war, was 30p entsprechen würde, jedoch hat sich in der Filmtechnik 24p bzw. 25p etabiliert. Damit das Bild trotzdem flüssig erscheint, tricksen die Filmemacher hier und nutzen bestimmte Schnittechniken und „langsame“ Kamerafahrten um „rucklige“ Bilder zu vermeiden. Manchmal wird auch die Technik „Motion Interpolation“ genutzt, wo aus bspw. zwei Bildern ein oder mehrere Zwischenbilder ausgerechnet werden um die Bildrate zu erhöhen. Im Consumerbereich existieren jedoch bereits seit längerer Zeit Camcorder mit 50p oder 60p und diese sogar doch relativ günstig (Bspw. Sony HDR-CX220EB).

Erst seit kurzem wurde durch Peter Jacksons „Der Hobbit“ erstmals ein Film in 48p ausgestrahlt (jedoch nicht auf der BluRay), was für einige Kinos auch der Kauf von neuen Projektoren hieß. Diese Framerate bekam die Bezeichnung HFR (High Frame Rate). James Cameron und Andy Serkis wollen jedoch ihre kommenden Filme auch in HFR drehen, teilweise wird gerade diskutiert ob man die Framerate nicht auf 60p hochschraubt. Diese Zahl resultierte aus der Zeit der 60Hz Monitore, die als Flimmerfreie Röhrengeräte empfunden wurden.

Deshalb rate ich einigen, die sich nicht ausdrücklich mit Schnitt- und Filmtechnik beschäftigen wollen zu 50p. Wer jedoch aber Videomaterial auf dem Fernsehrgerät via BluRay oder DVD abspielen möchte, braucht momentan noch nicht höher als 25p zu gehen, da bisher nicht mal Diskussion zur Spezifikationen vor allem für die BluRay, von HFR-Aufnahmen existiert. Bisher Wiedergeben es hauptsächlich nur Computer mit einigen kleinen Ausnahmen. In letzter Zeit werden sogenannte 100Hz, 200Hz, 300Hz, usw. Fernsehgeräte verkauft, die solche hohe Bildraten meist durch Motion Interpolation hin bekommen, was die Wiedergabe von Videos flüssiger erscheinen lässt, ob diese jedoch tatsächlich auch nativ solche hohe Frameraten erlauben variiert von Gerät zu Gerät.

5. i zu p Konvertierung

Wenn man Material von i zu p konvertiert sollte man beachten, dass man entweder beim Material an Bildern pro Sekunde einspart oder an der Auflösung. Persönlich tendiere ich bei der Konvertierung von „Interlaced“ Videos die Einsparung an der Bildrate, da ich schärferes Bild besser finde als „sehr flüssiges Bild“, vor allem da man hier einerseits oft Videomaterial mit 50i (oder höher) hat und zweitens mit Motion Interpolation die Bildrate wieder „hochrechnen“ kann. Als Beispiel: 1080i/50 Videomaterial wird beim Konvertieren entweder zu ~540p/50 oder zu 1080p/25. Durch Motion Interpolation kann man dann noch tricksen und die 25p auf 50p hochrechnen. Dennoch empfehle ich Videomaterial nativ im korrekten Format aufzunehmen, da das ganze von Programm zu Programm beim konvertieren sich anders verhält und ich hin und wieder auch bei einigen Leuten eine Verschlechterung ihres Videomaterials gesehen habe.

Eigene Fazit:

Hier möchte ich nochmals anmerken, dass Menschen Bilder ab 30 Bilder pro Sekunde als flüssig war. Bisher gibt es Full HD Consumer Camcorder bis zu 60p, jedoch sind diese 60p nur über einen Rechner oder vergleichbaren Zwischengerät darstellbar. BluRay und DVD laufen bis heute immer noch bis max. 25p und eine Erweiterung ist zum derzeitig Zeitpunkt noch nicht vorgesehen. Einige Seiten berichten, dass 80 Bilder pro Sekunde das Maximum wäre, was ein Mensch wahrnehmen könnte. Jedoch ist die Zahl von Mensch zu Mensch und Forum zu Forum unterschiedlich, weshalb ich (aus Eigentests) momentan noch 60p empfehle und maximal einen Fernseher/Bildschirm mit 100Hz als optimale Lösung empfinde. Zur Auflösung sollte man immer progressive nutzen, da sie klar die besseren Bilder liefern, jedoch ist die Frage welches Format ob 720p oder 1080p finde ich eher liegt an der Bildschirmgröße und Abstand zum Monitor / Fernseher, wo ich lediglich nur auf Eigentests verweisen kann. Ausnahme sind hier Aufnahmen mit niedriger Auflösung, da meistens durch das Hochskalieren das Bild unschärfer erscheinen lässt und es hinsichtlich der Ressourcen (Hardware, Größe der Datei, usw.) mehr Sinn macht sie in ihrer Auflösung zu lassen. Hier sollte man einfach selber den besten Wert bestimmen. Nebenbei gibt es auch DVD-Spieler die normales DVD hochskalieren, was einfach durch die Berechnung von Zwischenpunkten erledigt wird.

Die kommende Generation von Auflösung Namens 4k oder Ultra HD muss jedoch sich erst etablieren und ich zweifle momentan daran, dass sich diese im normalen Konsumentenmarkt etablieren wird. Lediglich wenn die Fernsehgeräte Überdimensioniert im Wohnzimmer stehen werden könnte 4k sich einen Namen machen, aber bis dahin schweige ich lieber über dieses Thema.

Im nächsten Artikel gehe auf Bitraten bzw. Qualität von Videos ein, sowie die DRM-Problematik ein, sowie auf eventuelle Fragen in den Kommentaren, die die Allgemeinheit interessieren könnte.

Eine Antwort zu “Chaos im Videobereich – Teil 1”

  1. […] Pixel), jedoch sind es leider nur 1080i, also nur Halbbilder (mehr dazu in meinen Artikel zu Videotechniken). 3D und Zukunftsfernsehen 4k sind beide ein kleiner Trend für sich, momentan sehe ich aber beide […]

    Antworten

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert