Kameratest Sony FS7 versus Sony FS5

Die Frage, die sich uns stellte war, kann man eine Sony PXW-FS5 als zweite Kamera neben einer Sony PXW-FS7 benutzen? Bei Interviews wäre es gut mit einer Kamera die Großaufnahme zu machen, und mit der zweiten Kamera eine totalere Einstellung.

Die Antwort ist schlicht und einfach: NEIN

Zu den Details:

Die FS7 wird von uns in der Regel im S-Log3 Modus, mit folgendem Codec betrieben:
XAVC-I-Mod.: HD 50p VBR, max. Bitr. 185 Mbit/s, MPEG-4 H.264/AVC
Dies ist ein „Intra-Codec“ d. h. es wird nur innerhalb eines einzelnen Bildes komprimiert, nicht aber über mehrere Bilder hinweg (Long-Gop).

Die FS5 bietet etwas ähnliches wie S-Log3, es nennt sich hier Modus 8 und ist wahrscheinlich eher so etwas wie ein „Picture Style“.
Als Codec kann man wählen zwischen einem 4K-Codec mit  100 Mbit/s und einem HD-Codec mit 50 Mbit/s. Beim 4K-Codec kommt man nur auf 25 Vollbilder pro Sekunde, was zu etwas ruckeligen Bewegungen führen kann, beim HD-Codec schafft man 50 Vollbilder pro Sekunde:

XAVC QFHD (3.840 x 2.160) bei 29,97p, 25p, 23,98p, 100 Mbit/s/60 Mbit/s

XAVC HD (1.920 x 1.080) bei 59,94p, 50p, 50 Mbit/s/35 Mbit/s

Die Erwartung war, dass der 4K-Codec heruntergerechnet auf HD, durch die Bitrate von 100 Mbit/s eine bessere Bildqualität ergibt, als der HD-Codec mit lediglich 50 Mbit/s, die dafür etwas ruckeligeren Bewegungen würde man dafür in Kauf nehmen. Beide Codecs der FS5 sind Long-Gop-Codecs, d. h. sie komprimieren nicht nur innerhalb eines einzelnen Bildes, sondern  über mehrere Bilder hinweg. Dabei wird nicht immer ein ganzes Bild gespeichert, sondern nur die Teile eines Bildes, die sich zum vorangegangenen Bild hin unterscheiden. Nach einer gewissen Anzahl von Bildern kommt dann wieder eine ganzes Vollbild.

Sony FS5 mit eingeschränkten Möglichkeiten.

Ergebnis

Das Ergebnis war dann doch ziemlich ernüchternd. Auf dem folgenden Foto haben beide Kameras die gleiche Blende und benutzen das gleiche Objektiv von Canon (24-70 mm  f 2.8 Zoom):

Sony FS5 versus Sony FS7 Auflösungsvergleich: links die FS5 mit dem erhöhten Rauschen, rechts die FS7. Bitte auf das Bild KLICKEN um den Unterschied besser zu sehen!

Wenn man das Bild auf seine Orginalgröße vergrößert, sieht man das starke Griseln im Hintergrund und auch ein starkes Rauschen in den Schwarztönen, obwohl sie schon auf dem Wavemonitor ganz unten liegen, also zum vollen Schwarz hin tendieren müssten.

Erstaunlicherweise hatte auch die 4K-Aufnahme, auf HD verkleinert, den selben Effekt und war nicht von der HD-50 Mbit/s-Aufnahme der FS5 zu unterscheiden. Das FS7-Bild auf der rechten Seite sieht dagegen sauber und glatt aus. Hier spielen die 185 Mbit/s und die Intra-Frame-Kodiereung, zusammen mit dem echten S-Log3, ihre ganze Stärke aus.

Für ein normales TV-Interview kann man die FS5 sicherlich als zweite Kamera neben der FS7 benutzen. Wir sind aber meist in Afrika unterwegs, mit dunkelhäutigen Menschen in der grellen Sonne oder vor extremen hellen Hintergründen, da wird es nicht nur mit einer Beta-Cam sondern auch mit der FS5 sehr problematisch. Zudem werden unsere Filme auch bei Veranstaltungen gezeigt, d. h. auf großen Bildschirmen, wo dann das Rauschen der FS5 extrem unangenehm auffallen würde.

Mein Fazit

Lieber etwas mehr Geld ausgeben und mit zwei Sony FS7 reisen, zumal der Preisunterschied im Einkauf der Kameras, mit 6.000 Euro für das Gehäuse der FS5 und 7.500 Euro für das Gehäuse der FS7 nicht so groß ist. Die FS5 ist bei dieser Qualität auch einfach viel zu teuer.

Autor: Thomas Hezel

 

 

 

 

 

 

 

Dreharbeiten, filmen in Ghana

Montag Morgen, an einem kalten Tag im Januar, die Botschaft Ghanas, am Ende der Schönhauser Allee in Berlin, ist zum Bersten voll. Ghana scheint ein beliebtes Land zu sein. Allerdings warten die meisten Anwesenden am Schlater für Passangelegenheiten und nur wenige am Visaschalter. Nach Angaben der englischsprachigen Dame brauchen wir für die Dreharbeiten in Ghana lediglich eine Presseakkreditierung und die normalen Online-Visa. Ich bekomme nach einiger Wartezeit ein kopiertes Formular für die Presseakkreditierung.

Die Presseakkreditierung über die Botschaft einzuleiten dauert, so wie es aussieht, allerdings eher Wochen als Tage. Alle Visa für das Drehteam können aber nur mit der Vorlage der Presseakkreditierung beantragt werden.

Im Internet finde ich einen sogenannten „Fixer“ in Accra:

Sulley Lansah
+233 545067569
+233 302767198
sule223@gmail.com

Er reagiert auf meine Mail innerhalb von einer Stunde und versichert mir, dass bei Vorlage aller Unterlagen, er eine Akkredietierung beim Ministerium für Information innerhalb eines Arbeitstages beantragen kann. Ich bekomme von ihm eine pdf-Vorlage zur Presseakkreditierung zugeschickt, die sich geringfürgig von der unterscheidet, die mir die Botschaft mitgegeben hat. Da ich schon mit der Vorlage der Botschaft begonnen habe benutze ich diese. Für jedes Mitglied des Filmteams muss ein Formular ausgefüllt und unterzeichnet werden. Zudem will er gescannte Passbilder und auf einem offiziellen Briefpapier der Filmproduktion eine genaue Angabe über die geplanten Dreharbeiten plus eine Equipmentliste mit den Seriennummern aller Geräte. Angeblich sind die Seriennummern wichtig, um bei Diebstahl oder Verlust nachweisen zu können welches Gerät gestohlen wurde.

Da ich schon die Einladung unseres Drehortes in Ghana (Universität von Ghana) habe, lege ich auch diese bei.

Die Formulare für die Akkreditierung habe ich als PDF in Indesign hinterlegt und dann ausgefüllt und die Unterschriften gescannt darunter gepackt.

PRESSEAKKREDITIERUNG

  • Passbilder gescannt
  • Brief auf offiziellem Papier der Filmproduktion mit genauen Angaben über die geplanten Dreharbeiten
  • ausgefülltes und von jedem Mitglied des Drehteams ausgefülltes Formular (bei der Botschaft erhältlich)
  • Equipmentliste mit Seriennummern und genauer Gerätebezeichung plus Wert der Geräte
  • (Einladungsschreiben des Drehortes in Ghana)
  • Kosten 90 USD pro Person (Januar 2016)

Auf der Seite der deutschen Botschaft in Accra findet man ebenfalls Angaben zur Presseakkreditierung und zu Dreharbeiten in Ghana:

http://www.accra.diplo.de/Vertretung/accra/de/07_20Kultur/Hinweise_20f_C3_BCr_20Journalisten/seite__journalisteninfo.html

Hier wird noch darauf hingewiesen, dass es trotz erfolgreicher schriftlicher Akkreditierung erforderlich ist, nach Ankuft in Accra, direkt beim Informationsminister persönlich vorzusprechen, um so die Akkreditierung abzuschließen. Dafür sollte man vorab einen Termin beim Ministerium buchen.
Diesen Schritt erledigt für uns Suley, da er dort wohl bekannt ist und seine Kunden das persönliche Vorsprechen erspart.

Für die Drehgenehmigungen vor Ort, schreibt mir Suley, dass er auch diesbezüglich behilflich sein kann. Falls Drehorte noch gesucht werden, könne er auch welche vorschlagen. Da wir lediglich an der Universität drehen, regelt dies jedoch die Fakultät für uns. Aber auch dies funktioniert „afrikanisch“, also mit sehr viel Respekt vor der Universitätsobrigkeit und klappt erst in letzter Minute.

Visum für Ghana, besser vor Ort bezahlen!

 

2-SCHRITTE-VISA:
ON-LINE-BEANTRAGUNG UND OFF-LINE-VERVOLLSTÄNDIGUNG

ONLINE

Jeder Visumantrag für Ghana beginnt auf der Online-Plattform der Botschaft. Man kann den Antrag auch beginnen und sich dann mit der Antragsnummer später wieder einloggen und weitermachen.

Es empfiehlt sich die Anweisungen sehr genau durchzulesen und zu beachten. Besonders amüsant sind die Angaben für die hochzuladenden quadratischen Fotos (Achtung kein biometrisches Passbild). Die Botschaft möchte einen neutralen Hintergrund und gibt dann das Speicherformt vor, die Pixelgröße, den Farbraum, die Kompressionsstärke etc. Wer sich mit Photoshop gut auskennt, für den ist dies sicher kein Problem (jpg mit weniger als 20:1 Kompression, sRGB, Pixelgröße etc.), für alle Anderen empfiehlt die Botschaft sich doch lieber gleich an einen professionellen Fotografen zu wenden und warnt, dass bei Fotos mit falschen technischen Spezifikationen der Antrag abgelehnt wird.

Zu beachten ist auch, dass nach zwei Einladungs-/Ansprechpartnern in Ghana gefragt wird, die jeweils mit einer Ausweiskopie ihre Identität bestätigen müssen. Ich habe zwei Universtitätsprofessoren angegeben, jedoch ohne Ausweiskopie. Dieses Vorgehen hat funktioniert, da es sich um Personen einer Institution und nicht um Privatpersonen handelte.

Scannen und hochladen muss man Folgendes:

  • Foto
  • Einladungsschreiben aus Ghana
  • Bestätigung/Beschreibung ausgestellt von der Filmproduktion auf offiziellem Papier (hier immer reinschreiben, dass die Firma alle Kosten für Unterkunft, Verpflegung und Transport übernimmt)
  • Flugplan/Tickets
  • Kopie Pass
  • (Bei mir noch Bescheinigung des deutschen Auftraggebers.)

OFF-LINE

Nach erfolgreichem Abschluß des Online-Antrages druckt man diesen aus und geht mit den ganzen Unterlagen (die zuvor schon hochgeladen wurden, plus dem Pass) zur Botschaft.

Nun gibt man den Antrag ab und kann, je nachdem was man beantragt hat, beim Schnell-Visum angeblich nach 3 Tagen und beim Normal-Visum in 1-2 Wochen mit einer abschließenden Bearbeitung rechnen. Man bekommt – manchmal aber nicht immer – eine Email oder eine SMS, die einem zur Abholung des Passes auffordert. Ansonsten kann man den Bearbeitungsstand auch online einsehen.

ACHTUNG

Auf der Online-Plattform steht, dass die Bezahlung für die Visumgebühr nur auf das Konto der Botschaft Ghanas bei der Deutschen Bank erfolgen kann. DIES IST FALSCH! Alle professionellen Visaagenten bezahlen bar am Schalter bei der Botschaft in Berlin. Bis meine Banküberweisung im Visasystem sichtbar war, dauerte es eine Woche, obwohl das Geld laut Aussage der Deutschen Bank schon am selben Tag auf dem Konto der Botschaft eingetroffen war.

Mein Schnellvisa für 100 Euro, das eigentlich innerhalb von 3 Tagen hätte ausgestellt werden sollen, wurde so erst nach einer Woche bearbeitet. Bei meiner persönlichen Nachfrage bei der Botschaft sagte die Bearbeiterin, dass sie das Geld noch nicht im System sehen würde und mein Antrag deshalb auch nicht bearbeitet würde. Ich war schon kurz davor doppelt zu bezahlen, als es dann, einen Tag vor Abreise, doch noch klappte.

ZOLL

Ghana gehört NICHT zur ATA-Carnet-Gruppe und erfordert deshalb besondere Zollformularitäten bei der Einreise mit einer professionellen Filmausrüstung.

Im Grunde funktioiert dies in Afrika eigentlich immer gleich:
Entweder man hinterlegt eine Sicherheit (in der Regel 20% des geschätzten/wahren Equipmentwertes), die man zwar zurückfordern kann, aber in der Regel nie wieder sieht oder man findet jemandem, der für die vollständige Wiederausfuhr des Equipments bürgt. Ein sogenannter „Custom Bond“ wird meist von Speditionen gegen eine Gebühr ausgestellt.
Die Alternative ist stundenlanges Verhandeln bei der Einreise mit einem Zöllner (bei mir waren es meist resolute Damen, unterstützt von mehreren Gehilfen),  um den Preis für die sogenannte „Hinterlegung“, die man jedoch nie wieder sieht, auszuhandeln. Das begann dann z.B. in Tanzania bei 20.000 bis 30.000 USD und endete nach 3 Stunden bei 2.000 USD, die ein schnell herbeigerufener Jugendfreund der Zöllnerin, der zufüllig eine Spedition betreibt, als „Bond-Gebühr“ ohne Quittung in seine Tasche steckte.

In Ghana erledigte die „Bond-Formalitäten“ Suley gegen eine Gebühr von 200 USD für zwei Filmausrüstungen, die an zwei verschieden Tagen ins Land kamen und mit einem Wert von 6.000 USD und 9.000 USD als Gebrauchtgeräte angegeben waren (ungefähr 15% des tatsächlichen Wertes).

Bei der Einreise am Flughafen in Accra geht man nach dem Gepäckband durch zwei Reihen von Zolltischen, an denen die Koffer kontrolliert werden. Ich war schon an allen Tischen vorbei, als am Ende die „übliche“ resolute Dame meinen Alukoffer entdeckte und mich zu sich an den Aufsehertisch beorderte. Sie legte zusammen mit ihren Gehilfen dann auch sofort los und als sie das Wort „Filmausrüstung“ hörte ,verlangte sie nach der Kaution oder einem „Custom-Bond“. Suley wollte mich zwar abholen, wartete aber draußen. Ich gab einem der Zöllner die Telefonnummer, worauf er Suley anrief und ihm durch die Eingangskontrolle half. Suley hatte die entsprechenden Papiere, die er schon beim Zoll am Nachmittag abgestempelt hatte. Es musste noch ein Formular ausgefüllt werden, dann war ich durch und erfolgreich in Ghana eingereist.

Als der Kameramann zusammen mit dem Tonmeister mit der zweiten Ausrüstung einreisten, waren alle Zolltische leer und weit und breit keine Zöllner zu sehen. Allerdings war es Sonntagnachmittag.

KOSTEN

  • Presseakkreditierung (über den Fixer) pro Person 90 USD
  • Schnell-Visa pro Person 100 €
  • Zoll („Custom Bond“) 200 USD
  • Gage Fixer 400 USD
  • Minibus mit Fahrer über den Fixer pro Tag 120 USD

Ich habe dem Fixer Sulley Lansah gleich bei meiner Ankuft die komplette Summe, auch für das Team und den Minius vorab ausbezahlt. Das war ein kleines Waagnis, aber es hat mit gutem Vertrauen funktioniert.

 

Auch die schönste Reise beginnt mit den Formalien auf der Botschaft. Afrikanische Botschaften lieben Papier – viel Papier – und am besten mit schönen buten Stempeln.

 

Accra hat auch schöne Seiten, nur ging es hier um Entwicklungsprojekte, die natürlich genau dort ansetzen, wo es eben nicht ganz so schön ist. (Björn Geldermann – Ton, Peter Armin Petrides – Kamera, Ghana 2016 – für zazudesign – die Schwarzwald Werbeagentur in Berlin)

 

Autor:

 

 

 

 

 

 

FS7 gegen FCPX

Achtung Schlaumeier-Bug: Final Cut Pro X Import von Material der Kamera Sony FS-7

Dreht man mit der Sony FS-7, so wird auf dem Speicherchip eine feste Ordnerstruktur gebildet. Diese Struktur sieht so aus:

  • XDROOT
    • Clip
    • CUEUP.XML
    • DISCMETA.XML
    • Edit
    • General
    • MEDISPRO.XML
    • Sub
    • Take
    • Thmbnl
    • UserData

Es macht durchaus Sinn diese Struktur, so wie sie ist, beim Sichern der Daten zu übernehmen. Verwendet man Programme wie ShotPutPro zur kontrollierten und geprüften Datenübertragung, dann passiert automatisch sowieso genau das:
Die Daten werden mit einer Prüfziffer eins zu eins übertragen. Das hat später den Vorteil, dass man mit Sony-Programmen wie dem Content-Browser wieder darauf zugreifen kann.

Erstellt man mit Final Cut Pro X eine neue Mediathek und will die Daten anschließend importieren, interpretiert FCPX allerdings die Ordnerstruktur als Speicherkarte und dupliziert die Daten trotz des markierten Feldes, „Dateien am ursprünglichen Ort lassen“ in den Ordner „Original Media“ der Mediathek, d. h. man hat die Daten am Ende doppelt auf dem Rechner. Hier will FCPX wieder extra schlau sein und fragt nicht nach, sondern ignoriert die Einstellung und fängt an wie wild zu kopieren, ohne dass man dieses sofort merkt.

Die Lösung des Problems besteht darin, die Daten der Kamera aus dem Ordner „XDROOT“ herauszunehmen und den dann leeren Ordner „XDROOT“ auf dieselbe Ebene mit den anderen Dateien und Ordnern zu packen. FCPX erkennt nun keine Speicherkarte mehr und unterlässt das hinterhältige Kopieren. Das Ganze kann mit einem kurzen Verschieben der Daten zurück in den „XDROOT-Ordner“ jederzeit wieder rückgängig gemacht werden.

So sieht die Ordnerstruktur auf der Festplatte aus:

  • 01012016-001-Drehtag
    • XDROOT
    • Clip
    • CUEUP.XML
    • DISCMETA.XML
    • Edit
    • General
    • MEDISPRO.XML
    • Sub
    • Take
    • Thmbnl
    • UserData

Der Drehtag-Ordner dient als Strukturierungshilfe mit Nummerierung der Speicherkartenabfolge. Das Datum steht am Anfang, damit nach dem Zeitablauf sortiert wird. Das Ganze packe ich dann wiederum in einen Dreh-Daten-Ordner innerhalb des Projektordners.

 

Autor:

fcpX – Final Cut Pro X: Unzulänglichkeiten und was wirklich nervt

Das ungeliebte Schnittprogramm Final Cut Pro X hat sich trotz aller Widerstände und vehementer Kritik am Markt etabliert. Kommt man mit der nicht weiterentwickelten Programmierung von Final Cut 7 an seine Grenzen, so liegt es nahe, nicht zu Avid zu wechseln sondern auf der gleichen Plattform zu bleiben. Dafür spricht natürlich auch der relativ geringe Anschaffungspreis im Gegensatz zur Avid-Welt. Darüber hinaus gibt es etliche Webseiten, die propagieren, dass das Unbehagen über die komplett andere Arbeitsweise nicht am Programm liegen würde, sondern an eingefahrenen (überkommenen) Arbeitsabläufen der Benutzer, die sich einer neuen, besseren Welt gegenüber sträuben würden.

Mein Fazit lautet: Diese Argumentation hat zum Teil ihre Richtigkeit, stimmt aber im Großen und Ganzen nicht. Die Grundidee von Final Cut Pro X liegt darin, dass man sich von festen Bearbeitungslinien löst (Spuren) und stattdessen mit frei fließenden Clips arbeitet, die man gegenseitig aneinander fixiert und so am Ende zu einem flexiblen, frei fließenden, komplexen Gebilde kommt, das sich wie eine Fischschwarm immer wieder automatisch neu formiert und nicht an starren Linien verhaftet ist.

Dies funktioniert während einer Ideen- oder Strukturfindung wirklich prima. Auch wenn es nicht so genau auf ein paar Bilder oder Sekunden hin oder her ankommt und man einfach schnell mal einen Video-Clip zusammenbasteln will, ist diese Form der Bearbeitung sicher extrem effizient und schnell. Man bedenke nur, wie umständlich es ist in Final Cut 7 zwei Clips gegenseitig auszutauschen. Auf der anderen Seite sind klar definierte Spuren (vor allem beim Ton) ein echter Segen und natürlich auch eine wirkliche Strukturhilfe, die dem Schnittmeister (ja, so heißt dieser Beruf) helfen nicht in die Beliebigkeit abzurutschen.

Schaut man sich den Schritt vom „richtigen“ Schnitt am Steenbeck, zum elektronischen Schnitt an, so gab es schon in dieser Generation einen komplett neuen Arbeitsablauf. Beim klassischen Filmschnitt kam das Material aus dem Kopierwerk und wurde von der zweiten Assistentin erst einmal beschriftet. Mit einem weißen Stift, per Hand, alle paar Bilder wurde die Klappennummer auf den Filmstreifen geschrieben. Danach kam die erste Assistentin und hat das Bildmaterial mit dem Tonmaterial synchronisiert, das Ganze abgelegt und ordentlich in ein Regal sortiert. Manchmal im gleichen Raum oder direkt daneben saß in der Regel eine weibliche Schnittmeisterin. Bevor der Schnitt begann wurde mit Regie, Kamera und ein paar engagierten Filmteammitgliedern (Regieassistenz, Continuity, Kostüm, Ausstattung) das Material durchgeschaut (Muster schauen) und die Schnittmeisterin hat sich währendessen Notitzen gemacht. D.h. bevor der Schneideprozess losging hatten alle das Material schon einmal in normaler Geschwindigkeit ganz durchgesehen und die Schneideraummitarbeiter hatten davor schon eine Sortierstruktur aufgebaut. Danach hat die Schnittmeisterin nicht einfach angefangen die Filmbilder wild zu zerschneiden und neu zusammenzukleben, denn zu oft hinundhergeschnitten bedeutete das Ganze nachbestellen, neu zu bezeichnen, zu sortieren und zu synchronisieren.

Die Schnittmeisterin hat sich das Material erneut angesehen und sich eine Struktur, eine Herangehensweise ausgedacht bzw. erarbeitet, bevor sie tatsächlich anfing das Filmmaterial in Stücke zu schneiden und neu zusammenzukleben. Hatte der Regisseur eine Änderung, so dauerte dies manchmal eine Stunde, in der der Kopf ruhen konnte und man dann mit neuem Blick und mit zeitlichem Abstand die Änderung betrachtete.

Mit dem digitalen Schnitt war dies alles vorbei. Von nun an legten die meisten Schnittmeisterinnen – jetzt einsam und allein im Schneideraum – einfach los und es passierte mir nicht nur einmal, dass ich fragte, wo ist denn die schöne Großaufnahme und ich zur Antwort bekam: „Was für eine Großaufnahme?“ Die Mühe sich alles vorhandene Material vorab ganz anzuschauen haben sich die Schnittmeisterinnen von da an nicht mehr durchgehed gemacht. Auch für den Regisseur änderte sich die Welt komplett, nicht mehr denken, dann entscheiden und dann warten bis die Korrektur fertig ist und dann mit Abstand neu bewerten, sondern ausprobieren, war fortan die neue Devise.

Das muss nicht immer schlechter sein, unterscheidet sich aber grundlegend vom klassischen Schnittvorgang. Statt denken jetzt probieren und ändern und wieder ändern und sich so langsam herantasten an eine Lösung oder einen Rhythmus, der aber vielleicht gerade im vielen Probieren kaum noch zu finden ist. Der Betrachter findet in der kurzen Zeit keinen Abstand mehr und versinkt in der Bilder und Tonflut. Dies führt nicht unbedingt zu schlechteren Ergebnissen, aber zu anderen.

Final Cut Pro X löst diese Grundstruktur nun vollends auf, indem es die dem Steenbeck-Schneidetisch nachempfundenen Spuren, in denen die Bänder synchron übereinander laufen, ganz aufgibt und den frei schwebenden Clip in den Mittelpunkt stellt und diesen mit Eigenschaften versieht (Rollen etc.) Dies funktioniert aber z.B. beim Export der Tonspuren zu ProTools nur bedingt, da es sehr schwer ist aus den Tonschnipseln mit Rollenmarkierung wieder klare Ebenen zu definieren, wie „Atmo-Spur“, „Angel Video 1“, „Anstecker Video 2“ etc. Was dazu kommt ist, dass der Cutter (wie er/sie jetzt heißt/en) auch gar nicht die Möglichkeit hat eine klare Ebenenstruktur in seinem Kopf aufzubauen. Es wabbert und verschwimmt quasi alles in einem diffusen Gefühl.

Wenn man mit fcpX anfängt, möchte man am liebsten mit schwarzem Füllmaterial eine schöne feste Spur machen und dann daran die ganzen Film- und Tonclips befestigen, quasi einen „Not-Avid“ kreieren. Aber dies macht natürlich überhaupt keinen Sinn, da man trotzdem im weiteren Schnitt ständig an Apples Dickköpfigkeit stößt, uns seine neue Philosophie auf Teufel komm raus aufdrängen zu wollen. Was wie man sieht mit der entsprechenden Markmacht auch gelingt.

Ich persönlich finde es sehr hilfreich und „schön“ zu wissen, dass z.B. der Hauptton der zweiten Videospur immer auf „A5“ liegt und ich in ProTools auf der fünften Spur auch genau diesen Ton wiederfinde. Mit einem Klick könnte ich dann auch diese Spur abschalten, dazu müsste ich in fcpX erstmal durchgehend und konsitent jeder Clipspur eine „Rolle“ vergeben. Will man dagegen erstmal wild einfach ein paar Clips hintereinander hängen, ohne sich um alles Weitere zu kümmern, den einen da weg und dort wieder hin, den von Vorne etwas weiter nach hinten, dann ist Final Cut X wirklich prima. Will man allerdings mal 3 Bilder nach vorne verschieben oder den Clip, der mit Video zwei verbunden ist an der selben Stelle mit Video eins verbinden, dann wird es schwer. Wie Abspielen nur vom letzten Schnitt bis zum nächsten geht, habe ich auch noch nicht herausgefunden und dass es keinen echten Viewer mehr gibt, mit allen Abspielwerkzeugen, in dem ich meine In-Punkte und Out-Punkte genau setzen kann, ist einfach nur eine dumme überhebliche Ignoranz der Apple-Programmierer.

Vieles habe ich als „verbohrter“ Final-Cut-7-Benutzer sicher noch nicht entdeckt und vieles regt mich unglaublich auf, da es mir die Arbeit unnötig schwer macht und mich ständig zu einer Arbeitsweise zwingt, die Apple gut findet, aber nicht ich. Ich mag es als professioneller Rennfahrer nicht, wenn die automatischen elektronischen Straßenmarkierungen, die Mechaniker in der Box und die Vorgaben der sonstigen Elektronik ständig an meinem Lenkrad zerren. Auch finde ich es unangenehm wenn auf dem Rücksitz permanent ein Mechaniker von Mercedes oder Ferrari sitzt und meine Lenkbewegungen ändert oder nachkorrigiert, das mag ja alles gut gemeint sein, lässt aber nicht unbedingt eine gute Kurvenlinie und einen optimalen Rennrhythmus aufkommen. Man schlingert dann von allen Seiten korrigiert über den Kurs und es entsteht eine Mischung von dem, was man eigentlich wollte und dem was die Programmierer von Apple glauben, was man wollen sollte.

Man könnte auch von ProTools lernen wo es die Möglichkeit gibt zwischen „Shuffle“ und „Grid“ umzuschalten, also vom freien Fluß und in der anderen Einstellung, die Ausrichtung an einem Gerüst oder Bilderraster. So könnte man in einer ersten Phase wild herumspielen, alles fließt und hüpft und springt und dann wenn es um die Feinstruktur geht, die Clips in der wieder auferstehenden „Timeline“ andocken, die Tonspuren sauber verteilen und die weitere Postproduktion wäre viel einfacher.

Im Folgendenden möchte ich ein paar Dinge auflisten, mit denen ich hadere. Vielleicht gibt es ja eine wunderbare Tastenkombination, die das Problem mit „Apfel-Alt-Cmd-ü“ löst, nur dass ich diese noch nicht entdeckt habe. Ich freue mich – und viele Andere sicher auch – über Anregungen und Tips!

Was an Final Cut X wirklich nervt:

  • Bei Multi-Cam-Clips wird in der Bearbeitungsleiste nicht der Name des Multi-Cam-Clips angezeigt sondern der Name einer einzelnen Videospur.
  • Wie unterscheidet man einen Multi-Cam-Clip-Kameraumschnitt und einen normalen Schnitt in der Anzeige. Beides sind die gleichen gestrichelten Linien.
  • Wenn meine Maus zufällig auf einer Videospur liegt, springen Aktionen nicht auf die Abspielposition (Playhead), sondern dahin wo gerade zufällig der Mauszeiger liegt. Das ist richtig nervig. In den Einstellungen kann man das Ganze noch verschlimmern, indem man den Abspielkopf dann auch noch dahin springen lässt. (Der Mechaniker, der dem Rennfahrer permanent ins Lenkrad greift.)
  • Apple sagt: „In Final Cut Pro X 10.1.2 oder höher haben Sie vollständige Kontrolle über die Speicherorte für importierte Dateien und erstellte Medien …“, warum importiert FCPX dann Medien in die Mediathek, obwohl ich „Am Speicherort belassen“ angekreuzt habe? Bei Kameradaten in der normalen Ordnerstrucktur der Sony FS7 muss ich alles aus dem obersten Ordner herausnehmen, damit FCPX nicht eigenständig das ganze Material verdoppelt, nur weil es meint, dass es eine Speicherkarte ist. Andere Dateien werden ebenfalls kopiert, statt referenziert, welche, wann und warum habe ich noch nicht herausgefunden. Siehe auch hier den Blogbeitrag über das Referenzieren –>
  • In der zweiten Spur werden keine Schwarzbilder akzeptiert (ALT+W). Warum? Wenn ich ein Interview grob schneide, in der ersten Spur Texthänger herausschneide und anzeigen will, dass ich hier später ein Bild darüber brauche, kann ich kein Schwarzbild einfügen. Das herausziehen einer Schwarzsequenz aus der ersten Spur in die zweite wird ebenfalls blockiert.
  • Wo steht mein Text eines einfachen Titels, dazu gibt es keine Zahlen, die man einstellen kann. Man kann dem Text dann später ein Offset geben, aber von wo? Der Text scheint, wenn man ihn mit dem Cursor bewegt, in bestimmte Bereiche einzurasten, dies aber auch nur vage. Text und Final Cut X sind keine Freunde. Hilfslinien oder ein Raster sucht man vergebens. Lieber gleich die Finger von allen Textelementen in FCP X lassen!
  • Man klickt in ein Feld mit einer Einstellungszahl für einen Effekt oder einen Versatz, tippt die Zahl ein und bestätigt mit der Enter-Taste, dann kann es passieren, dass sich beim Wegziehen des Mauszeigers vom Feld die Zahl ändert, als ob der Mauszeiger sie nach oben oder untern ziehen würde. Wenn man es nicht sofort merkt, da man ja schließlich mit der Enter-Taste abgeschlossen hatte, sucht man lange vergeblich den Fehler oder wundert sich, dass alles schief hängt.
  • QuickTime Gamma Shift – kommt man nach der Lichtbestimmung von DaVinci Resolve zurück zu FCPX wundert man sich, warum plötzlich alles so hell ist. Der „Fehler“ oder das Probelm liegt bei QuickTime, das unter FCPX liegt, und aus irgendwelchen Gründen (vielleicht um die Darstellung auf Mobilgeräten zu ändern) das Gamma verändert. Schaut man sich das Ganze dann z. B. auf dem VLC-Player an, dann stimmen die Farben.
  • Einen Clip oder einen Titel in der „Timeline“ nach oben schieben, ohne dass man links oder rechts wegrutscht. Dafür gab es früher einfach die Hochstelltaste, mit der man einen Clip, ohne ihn seitlich zu verschieben, auf eine andere Spur bewegen konnte. Will man jetzt einen Titel über einen Clip bewegen, geht das nicht mehr, der Clip wandert bei der Mausbewegung nach links oder rechts weg. Immerhin wird einem der Wert angezeigt, so dass man danach mit einer Zahleneingabe und plus oder minus wieder korrigieren kann.

 

Autor: Thomas Hezel

 

 

 

Wie unterscheiden sich Broadcast- und Computer-Monitore beim Color Grading?

Oder:
Wie unterscheiden sich professionelle Fernsehbildschirme und Computermonitore bei der Lichtbestimmung und Farbkorrektur.

Nicht immer erlaubt das Budget einer Videoproduktionen eine professionelle Lichtbestimmung, mit einem erfahrenen Lichtbestimmer, auf hochwertigen, kalibrierten Geräten durchzuführen. Die Entwicklung geht auf der anderen Seite im Videobereich immer mehr in Richtung größerer Bildschirme und damit auch in Richtung von sehr detaillierten Bildern mit über 4000 Pixeln in der Längsachse (4K) und damit zu ständig wachsenden Ansprüchen an die abzuliefernde Bildqualität. Wer nicht mit einem großen Beleuchterteam und viel Zeit unterwegs ist, für den empfiehlt es sich deshalb mit einem S-Log-Profil zu drehen, um hinterher noch die Möglichkeit zu haben hohe Kontraste und fehlende Aufhellung anzugleichen. Dies ermöglicht bei den meisten Kameras einen Kontrastumfang von ca. 14 Blenden, wobei das Videomaterial quasi in den mittleren Kontrastbereich hineingestaucht wird und beim unkorrigierten Betrachten matschig-flau aussieht. Dafür ist der Himmel im aufgezeichneten Signal nicht komplett weiß überstrahlt und das Gesicht des Darstellers nicht völlig schwarz gegen die Sonne, da innerhalb der gespeicherten Daten mehr Details und Strukturen vorhanden sind, als man auf Anhieb sieht.

In der Postproduktion im Folgenden einfach eine „Instant-Korrektur“, mit einer sogenannten LUT (Look up Table) durchzuführen, die die komprimierten Werte des S-Log-Profils in das HD-TV-Profil Rec.709 überführt, taugt bestenfalls für ein ansehnliches Bilderlebnis während der Schnittphase oder als Ausganspunkt für die danach folgende Lichtbestimmung (Neudeutsch: Color Matching – zwischen einzelnen Einstellungen oder Color Grading – als Farb- und Kontrastgestaltung).

Man hat gerade bei kleineren Produktionen oft das Problem, dass man mit nicht perfekt ausgewogenem Material nach Hause kommt, auf der anderen Seite teure Postproduktionsstudios aber außerhalb des Budgets liegen.

Das heißt: „selbst ist der Mann“ und von Blackmagicdesign gibt es die professionelle Lichtbestimmungs-Software auch noch kostenlos.

Wer schon mit Programmen wie After Effects, oder mit den Möglichkeiten von „FinalCut 7 – Color“ gearbeitet hat, für den ist der Umstieg, nach ein wenig Fachlektüre, nicht sehr schwer. Doch das ganze Unterfangen steht und fällt mit der Möglichkeit, das was man korrigiert auch richtig zu sehen. Neben der Software ist dies zuallererst der Monitor, bei dem grau gleich grau sein sollte und nicht graublau oder grüngrau und schwarz gleich schwarz und nicht dunkelgrau. Das heißt der Monitor muss kalibriert werden. Dafür gibt es Geräte wie den „Spyder“ oder andere Sensoren, mit denen man eine Kalibrierung durchführen kann. Doch ist das schon alles? Worin unterscheidet sich ein hochwertiger Computer-Monitor von einem 25.000 Euro Fernseh-Monitor (Neudeutsch: Broadcast Monitor)? Was bekomme ich mit einem mittleren Budget und wo liegen die Grenzen?

Der Farbraum

Das erste Kriterium ist der Umfang an Farben, die ein Monitor darstellen kann. Dafür gibt es Farbräume, die jeweils ein bestimmtes Spektrum von Farben in einem Farbschema auflisten. Natürlich sollte zumindest der Farbraum des HD-TV-Standards Rec.709 dargestellt werden können. Dies können alle Monitor, selbst günstige Computer-Monitore, da der Rec.709  (oder ITU-R BT.709) Farbraum nahe am sRGB Standard-Computerfarbraum liegt.

Folgende Farbräume werden für die oben gezeigten Monitor angegeben:
(das Sternchen* bedeutet: „fast, aber nicht vollständig“)

Sony BVM-E250A:
ITU-R BT.709, EBU, SMPTE-C, D-Cine*

Sony PVM-X300:
ITU-R BT.709

Canon:
DCI-P3, ITU-R BT.709, EBU, SMPTE-C und Adobe RGB* (mit neuer Firmware seit 2015 auch Rec.2020!)

Eizo:
AdobeRGB: >99 %, DCI-P3: 98 %, sRGB: 100 %, Rec.709: 100 %, EBU: 100 %, SMPTE-C: 100%, Rec.2020: 80 %

Was ist was?

  • Rec.2020 – der größte Farbraum mit sehr sattem grün, blau und rot (AdobeRGB deckt davon nur 52,1% ab, DCI-P3 nur 53,6 %), die Zukunftsnorm für die hochauflösenden Bilder
  • DCI-P3 – sehr großer Farbraum für das Digitale Kino (mehr Rottöne als AdobeRGB aber weniger Grüntöne)
  • AdobeRGB – bekannt aus der Fotografie, ein sehr großer Farbraum, wird meist in professionellen Fotokameras benutzt
  • SMPTE-C (NTSC) – alte amerikanische TV-Norm
  • EBU – alte europäische PAL-TV-Norm
  • ITU-R BT.709 (Rec.709) – Farbraum für das HD-Fernsehen, ist relativ klein
  • sRGB – Farbraum für normale Computermonitore (ähnlich zu BT.709), ist relativ klein, es fehlt vor allem in den kräftigen Grüntönen und im satten Rot

Auffällig ist der Rec.2020-Vollumfang für den Canon Monitor. Bisher meisterte selbst den kleineren DCI-P3 Farbraum nur ein spezieller Monitor von Dolby, der „Dolby PRM-4200 Professional Reference Monitor“ mit 42“ und 1920×1080 Pixeln für 35.000 Euro.
Beim Eizo fällt auf, dass er mit 80% Rec.2020 sehr viele grün-blau Töne abdeckt, die bei den anderen Monitoren fehlen. Für eine 100% Darstellung für die digitalen Kinoprojektoren (falls man nicht gleich einen solchen benutzt, was am meisten Sinn macht) eignet sich in dieser Auswahl nur der Canon Monitor, der zudem die Zukunft mit dem Rec.2020 in die Gegenwart rückt. Der E250 von Sony und der Eizo bilden jedoch auch sehr große, in der täglichen Arbeit gebräuchliche, Farbräume ab.

Fazit:
Wer für das HD-Fernsehen oder das Internet arbeitet, für den reicht der Farbraum von Rec.709 aus und dieser wird von allen Monitoren locker abgebildet. Wer für digitale Kinoprojektoren seine Projekte gestaltet, der sollte die Sache einem Fachmann überlassen, der sich nicht nur einen richtigen Kinoprojektor in sein Studio stellt, sondern wahrscheinlich auch noch den Canon Monitor für die Einstellungen, die er lieber am Monitor bearbeitet. Wer für die 4K-Zukunft gerüstet sein will, der sollte schauen, dass der Monitor möglichst viel von Rec.2020 abbilden kann. Und noch eine Nachricht spricht für einen erweiterten „Wide-Gamut-Farbraum“, nämlich die Einführung des neuen H.265 Internet-Codecs, der H.264 ablösen soll und auch Filmmaterial mit dem Farbraum AdobeRGB 1998 enthalten kann und somit die sRGB-Beschränkung für das Internet auflöst. Damit wird AdobeRGB bei Video, wie bei der Fotografie, der wichtigste Farbraum.

Der größte Farbumfang nutzt nichts, wenn der Monitor nicht kalibriert ist

Sony schreibt:
„The performance of every TRIMASTER EL monitor is precisely adjusted and inspected on gamma, white balance, uniformity, etc., by a highly robotized system and by professionally trained human eye at the final stage of manufacture prior to shipping. The BVM-E170A and BVM-F170A are equipped with a built-in color sensor, which allows the user to calibrate
the monitor’s color temperature (white balance) as needed without an external probe.  Calibration performance is minimally affected by ambient light. This function ensures color and gamma consistency, and reduces user maintenance tasks.“
Dies scheint jedoch nur für den kleineren E170 zu gelten und nicht für den E250 und X300. Für Firmen bietet Sony anscheinend einen Kalibibrierungsservice, das ist dann wohl eher für große Studios gedacht und nicht dafür, dass der freunliche Mann von Sony alle 200 Arbeitsstunden einem einen netten Besuch abstattet.

Canon DPV-3010
Für Canon muss man sich mit zusätzlichen externen Geräten behelfen.

„Use of a third-party external sensor allows calibration without a PC.“

Der Eizo,
ermahnt seine Benutzer alle 200 Stunden, dass es mal wieder Zeit wird eine Kalibrierung mit der dazugehörigen Software „Color Navigator“ und mit Hilfe des eingebauten Meßgerätes durchzuführen. Nachdem der Monitor ca. eine halbe Stunde warmgelaufen ist – oder automatisiert in der Nacht – klappt der eingebaute Sensor aus dem Rahmen heraus, misst eine lange Reihe von Testbildern durch und legt danach eine 3D-Kalibrierungs-LUT in den Speicher des Monitors. Über dieselbe Software lassen sich auch verschiedene Farbprofile einstellen oder auf einzelne Profile eine LUT (z.B. von S-Log3 nach Rec.709) oben drauf legen, die man per Klick ein- und ausschalten kann. Über eine Zweitmessung können dann nochmals Abweichungswerte ermittelt werden.

Fazit:
Vor dem Kauf eines Monitors sollte man sich auch überlegen, beziehungsweise beraten lassen, wie man das Gerät im Betrieb regelmässig kalibrieren kann.

Die Bit-Tiefe, oder wie genau darf es denn sein?

Was wir den meisten Computern nicht ansehen und was wir so gut wie nie bemerken ist, dass Computer permanent ein Problem mit der Genauigkeit von Berechnungen haben. Der Computer muss alle Zahlen die er berechnet in Speicherzellen legen, die dann für die jeweilige Berechnung reserviert werden müssen. Teilt man z.B. 16:9 = 1,7777777777777 und will mit dem Ergebnis weiter rechnen, so muss man sich überlegen, mit wie vielen Siebenern man weiter rechnen will. Genauso sieht es mit den Farb- und Helligkeitswerten aus. Wieviele Speicherzellen soll man z.B. für die einzelne Anteile von RGB berücksichtigen? Reicht z.B. 0,187 % Blau oder muss es 0,187383399373034791478383473928374 % Blau sein? Bei 10 Bit kann man 10 Binärzahlenzellen belegen was Milliarden von möglichen Farben sind, bei 12 Bit entsprechend mehr und bei 16 Bit wird es dann sehr sehr präzise. Die Frage ist hier auch, was bekomme ich denn über die Ansteuerung meines Monitors überhaupt herein? Ist der Monitor über 3G-SDI, HDMI 2.0 oder DisplayPort  verbunden.

Die Bit-Zahlen der einzelnen Monitore:

Sony spricht von einem 10-Bit RGB Panel, Canon spricht von 1024 Abstufungen und 10-Bit Farbtiefe für jede RGB Farbe, bei Eizo heißt es, man verwendet 16-Bit Look-up-Tables und kann 10-Bit Farbtiefe darstellen, also 10-Bit Eingabe, interne 16-Bit Verarbeitung und wieder 10-Bit Ausgabe.

Fazit:
10-Bit scheint momentan die magische Zahl zu sein, die alle Monitore können. Das alte HDMI konnte nur 8-Bit übertragen (256 Farbabstufungen pro Kanal) das neue HDMI (seit 1.3) kann jedoch mittlerweile 10, 12 oder 16 Bit pro Kanal, nur gibt es für 16-Bit wohl wenige Monitore. Der DisplayPort geht von 6-16 Bit. Die Lichtbestimmungssoftware DaVinci Resolve rechnet intern mit 32 Bit-Zahlen um Veränderungen durchzuführen:

„All image processing within DaVinci Resolve is GPU based at the deepest 32 bit floating point quality and with YRGB color space.“

Die Schwäche von 8-Bit Monitoren liegt sichtbar fast nur bei Farbverläufen und Farbübergängen, was Artefakte erzeugt, die nicht im Bildsignal liegen und die man dann vielleicht trotzdem zu korrigieren versucht.

Wie viele Pixel – wie groß – ist 4K?

„K“ steht für „Kilo“ also für 1.000, damit müsste 4K 4.000 Pixel bedeuten, tut es aber nicht!

Das analoge PAL-Fernsehen hatte 625 Zeilen,die nach gerade und ungerade getrennt (interlaced) in Halbbildern vom Elektronenstrahl abgearbeitet wurden. Die HD-TV-Norm hat sich beim „Full-HD“ oder „True-HD“ auf 1920×1080 Pixel geeinigt. Daneben gab es noch „HD-Ready“ oder „Half-HD“ mit 1280×720 Pixeln. Die Auflösungen werden über die Höhe als „1080p“ oder „720p“ bezeichnet, wobei „p“ für „progressive“ also für Vollbilder steht.

„4K“ meint manchmal 3840×2160 Pixel, also genau die vierfache Pixelzahl von „Full-HD“. Die 4K-Auflösung stammt aber eigentlich aus dem Kinobereich und meint dort 4K=4096×2160 Pixel, also eine etwas größere Breite. Die 38940×2160 heißen eigentlich nach der Norm UHD-1 (UHD-2 sind 8K mit 7680 × 4320 Pixeln) oder „UHD-4K“ und bei der Kinopixelzahl „DCI-4K“ oder einfach nur „4K“. Die meisten Filmkameras in einem Anschaffungsbereich unter 20.000 Euro nehmen 4K-UHD-1 auf.

Fazit:
Die obigen 30“ Monitore stellen alle die große 4K-Kinoauflösung von 4096×2160 Pixeln dar, die etwas breiter ist als die vierfache „Full-HD“ Auflösung. Nur der Canon bietet in der Höhe nochmals 400 Pixel mehr Platz. Er nähert sich damit anderen 30“ Computermonitoren an oder hat einfach Platz, um z.B. unter dem Bild noch den Timecode einzublenden.

Das Herz der Maschine, die Leuchtkörper die das Licht erzeugen

Hier teilen sich die Welten in LCD, Plasma und OLED.

LCD

LCD = Liquid Crystal Displays haben den Vorteil von genauen und stabilen Farben. Sie holen mittlerweile bei den Schwarzwerten gegenüber den Plasmabildschirmen auf und sind bei der  Lichtbestimmung weit verbreitet. Einige LCD-Bildschirme gibt es mit Antireflexions-Graufiltern, die störende Lichtreflexe der Raumbeleuchtung beseitigen, dies sollte aber selbst in einer Kleinvideoproduktionsstätte nicht nötig sein, da man den Lichteinfluss anderer Lichtquellen schließlich leicht korrigieren kann. LCDs brauchen – und das ist entscheidend – eine sogenannte Hintergrundbeleuchtung. Hier gibt es verschiedene Vorgehensweisen:

a. Wide-gamut CCFL, also Leuchtstoffröhren (Kaltkathodenröhren)
Leuchtstoffröhren haben in ihrem Spektrum meist einen sehr großen Farbraum (siehe KinoFlo Leuchten), der bis zum DCI-P3 Kinoprojektorenfarbraum heranreicht. Die Röhren brauchen allerdings 30 Minuten um „warm“ zu laufen. Sie sollten mindestens halbjährlich kalibriert werden.

b. Weiße LEDs
Weiße LEDs müssen nicht „warm“ werden und auch nicht „hochlaufen“, sie sind sofort auf Farbtemperatur. Der Farbraum entspricht allerdings meist nur 74% des DCI-P3 Farbraumes. Für das normale Rec.709 HD-TV ist dies jedoch kein Problem, sofern man es dabei belassen will. LEDs sind farbstabiler und müssen nicht so oft kalibriert werden.

c. RGB LED
Hier werden kleine Bereiche des LCD-Panels mit „Triaden“ also roten, grünen und blauen LEDs beleuchtet. Die LEDs sind dabei voll in ihrer Intensität einstellbar und befinden sich auf einem zweiten Hintergrundpanel (dual modulation). Hiermit erreicht man bei High-End-Bildschirmen eine optimale Hintergrundbeleuchtung. Da man damit bestimmte Regionen, abhängig vom Bild, in der zweiten Ebene steuern kann, führt dies im Endeffekt zu einem präzisen detaillierten und satteren Schwarz und insgesamt zu einem erweiterten Farbraum des Monitors. Diese Monitore kosten dann aber auch entsprechend (siehe Canon DPV-3010). Auch diese Monitore sollten relativ oft kalibriert werden.

Plasma

Hochwertige Plasma Bildschirme sind in der Vergangenheit oft bei der Lichtbestimmung eingesetzt worden. Sie haben ein kräftiges sattes Schwarz, einen exzellenten Kontrastumfang und kosten in großen Größen relativ wenig. Plasmabildschirme müssen relativ oft kalibriert werden und sie brauchen ebenfalls Zeit um „hochzulaufen“.
Plasmabilschirme haben jedoch zwei Nachteile:
Zum einen gehen Details in den satten Schwarzwerten oft verloren und zweitens gibt es einen „Auto-Helligkeitslimiter“, der ab einem bestimmten Stromfluss das Display dimmt, wenn die Helligkeit zu groß wird. (Der zweite Punkt betrifft aber weniger Video, sondern mehr Grafikdarstellungen.)

OLED

OLED = Organic Light Emitting Diode Displays gibt es bisher nur in kleinen Größen zu einem dafür um so größeren Preis. (Deshalb habe ich hier den Sony BVM E250A mit lediglich 24,5“ mit aufgenommen.) OLEDs brauchen keine Hintergrundbeleuchtung, haben erstaunlich satte Schwarzwerte und einen sehr großen Kontrastumfang. Bei der absoluten Schwarzdarstellung können einzelne Dioden einfach abgeschaltet werden, ohne dass vom Hintergrundlicht etwas durchscheint, dadurch wird es klarer und dunkler. Die Farben sind ebenfalls sehr leuchtstark und lebendig. Der OLED-Monitor muss nach einer halbstündigen „Hochlaufphase“ ebenfalls relativ oft kalibriert werden und hat nicht ganz optimale Seitenbetrachtungseigenschaften. Der große Nachteil ist aber, dass außer demjenigen, der eines der seltenen und teuren Exemplare sein Eigen nennt, niemand sonst das ausdrucksstarke Bild sehen kann. Für die Lichtbestimmung hat dies dann eigentlich genau den gegenteiligen Effekt, denn ich kann nicht einschätzen, wie das Ganze auf einem ordentlich eingestellten Normalo-Monitor/TV-Bildschirm aussieht.
Sony geht jedoch diesen Weg und hat mittlerweile einen 30“ Monitor in Entwicklung und nach Eigenaussagen, einen ganzen russischen Ü-Wagen mit OLED-Monitoren ausgestattet. Schön für den russischen Fernsehtechniker, wenn er vor dem Bolshoi-Theater in seinem Ü-Wagen sitzt und die Ballerinas begutachten darf.

Fazit:
Der Sony BVM E250A bietet OLED-Technik, leuchtstark und satt in den Farben, ein 30“ OLED wird von Sony bald auf den Markt kommen, wird aber dann sicher alle Preisgrenzen sprengen. Abgesehen von russischen Oligarchen, ist man auf der anderen Seite dann aber auch ziemlich einsam und alleine mit seinem tollen Monitorbild.
Der Canon DP-V3010 scheint das neue Maß aller Dinge zu werden. Er verfügt über ein IPS-LCD-Panel mit guten Seitenbetrachtungseigenschaften. Darüber hinaus hat der Canon eine hochwertige RGB-LED Hintergrundbeleuchtung, die ihn in allen Farb- und Lichtwerten weit nach vorne bringt. Seine Oberfläche besteht aus einem „reflexionsarmen Glanzfinish“.
Der Eizo CG318-4K ColorEdge besitzt ebenfalls ein IPS-LCD-Panel wie der Canon, aber nur mit einer normalen LED-Hintergrundbeleuchtung. Dennoch ereicht er einen sehr großen Farbraum mit 98% des digitalen Kinos und 99% von AdobeRGB, was für die normale TV- und Internet-Videoproduktion auch für die Zukunft ausreichend ist.

Zurück zur Ausgangsfrage:
Wie unterscheiden sich Fernsehbildschirme und Computermonitore bei der Lichtbestimmung und Farbkorrektur.

Vergleicht man den Computermonitor von Eizo mit den Bildschirmen des traditionellen Fernsehausstatters Sony oder des fast Fernsehneulings Canon, so gibt es im Grunde, bis auf den jeweiligen Aufwand, den man für ein optimales Bild treibt und die jeweilige Strategie die man verfolgt, keinen gravierenden Unterschied. Ganz im Gegenteil, der Eizo schlägt sich, bei einem Fünftel des Preises, geradezu sensationell; inklusive Selbstkalibrierung und großem Farbraum. Die normalen 30“ Monitore von Sony können ohne OLED-Technik, trotz des stolzen Preises von 21.000 Euro, da nicht mithalten.

Was bieten aber professionelle Fernsehbildschirme für den fünffachen Preis mehr?

Mit einem einzigen Satz könnte man sagen, allerlei Wichtiges, Essentielles und Nützliches im professionellen Fernsehproduktionsumfeld, sei es im Studio oder unterwegs im Ü-Wagen.

Die Anschlüsse

SDI = Serial Digital Interface hat sich aus der analogen Digitaltechnik entwickelt und über die ersten digitalen Formate bei den Fernsehstationen etabliert.  Die Signale werden seriell hintereinander gestückelt (multiplexen) übertragen. Man verwendet dafür in der Regel ein oder mehrere Koaxialkabel. (Diese waren bei der analogen Videotechnik sowieso schon vorhanden.)

HD-SDI gibt es seit 1998 und kann 1,485 Gbit/s weiterleiten, bei einer Kabellänge von bis zu 100 Metern. (Mit einem 100 Meter langen HDMI-Kabel würde man wohl nicht sehr viel am Ende vom ursprünglichen Signal sehen.)

3G-SDI schafft in einem Kabel 2,9 Gbit/s

6G-UHD-SDI schafft in einem Kabeln 6 Gbit/s und damit 4K-UHD

DisplayPort, ein eigentlich in der Computertechnik entstandener Anschluß, der hauptsächlich über die Erweiterung der Firma Apple über den „Mini DisplayPort“ und nun „Thunderboldt“ schnell verbreitet wurde. Der DisplayPort kann in seiner neuesten Spezifikation Datenraten bis zu 25,92 Gbit/s bewältigen. In den meisten Geräten wird er für die DCI-4K Übertragung mit bis zu 60 Bildern pro Sekunde verwendet. (DisplayPort 1.3 schafft 5K mit ebenfalls 60 Bildern pro Sekunde) Viele Zusatzgerätehersteller in der Fernsehtechnik (Aja, Blackmagicdesign etc.) bieten jedoch mittlerweile (Jahr 2016) keinen DisplayPort-Anschluß mehr, sondern setzen neben SDI nun voll und ganz auf HDMI 2.0.

HDMI = High Definition Multimedia Interface aus dem Jahre 2003, kann in seiner Spezifikation 2.0, seit September 2013, eine Übertragung von 4096 x 2160 Pixeln, also DCI-4K Kinonorm, bei einer Bildfrequenz von 60 Bildern pro Sekunde bewältigen. Damit ist der bei den normalen Fernsehgeräten übliche HDMI-Anschluß 4K-profifähig geworden und hat den DisplayPort ziemlich verdrängt.

Die Anschlüsse der Monitore

Eizo CG318-4K ColorEdge
Hier liegt die momentane Achillesferse des Eizo CG318-4K ColorEdge. Laut Auskunft der Technikabteilung von Eizo Deutschland musste man bei der Entwicklung des Monitors noch auf den bis dahin etablierten HDMI 1.4 Standard setzen, da der 2.0 Level noch nicht technisch klar spezifiziert war.
Dies bedeutet für einen Monitor, der keine TV-Studio-SDI-Anschlüsse hat, dass er nur über den DisplayPort seine vollen 4096×2160 Pixel bei einer Bildrate von 60 Bildern pro Sekunde darstellen kann. HDMI 1.4 schafft lediglich 24 Bilder pro Sekunde bei dieser Pixelrate.

Aber gerade bei einer so hohen Auflösung ist es, um einigermaßen ruckelfreie Schwenks zu erzeugen, zwingend nötig bei 4K in 50P, also mit 50 Vollbildern zu arbeiten!

Um bei der Lichtbestimmung oder auch beim Schnitt einen Ausgangsmonitor im Vollbild zu haben braucht man aber in der Regel eines der Ansteuergeräte von z.B. Aja oder Blackmagicdesign. Diese liefern jedoch nur SDI oder HDMI 2.0 und keinen DisplayPort mehr. Echte Konvertierer von HDMI 2.0 zu DisplayPort, ohne große Verluste und zu einem vernünftigen Preis, sind selbst in China nicht auf dem Markt. Es gibt einen chinesischen Exoten für 2.500 Euro, der das Endbild aber dann in 4 Teilbilder aufstückelt. Umgekehrt, also von DisplayPort zu HDMI 2.0 geht es einfacher und es gibt ein ordentliches Angebot auf dem Markt.

Arbeitet man mit der Lichtbestimmungssoftware Blackmagicdesign DaVinci Resolve, so braucht man für die direkte Vollbildansicht, ohne ständig zwischen Arbeitsansicht und Vollbild hin und her schalten zu müssen, zwingend ein UltraStudio 4K Gerät oder dergleichen. Diese haben aber alle keine DisplayPort-Ausgänge mehr sondern nur 6G- und 12G-SDI plus HDMI 2.0.

Was passiert, wenn man den Monitor mit dem HDMI 2.0 Signal an seinem HDMI 1.4 Eingang füttert habe ich nicht ausprobiert. Falls er ein ordentliches Standbild produziert, würde es für die Lichtbestimmung ja noch einigermaßen gehen, nur nicht für den Schnitt.

Für den normalen Betrieb lässt sich der Eizo-Monitor natürlich in seinem ganzen technischen Umfang über den Thunderboldt-Anschluss eines Macintosh Computers ganz regulär betreiben.

Sony
Sony bietet, was das Herz begehrt, SDI, HDMI, DisplayPort und komplette Anschlusseinheiten zum Austauschen, je nach Bedarf. Aber im Grunde ist man auf SDI spezialisiert und versorgt die Fernsehstudios mit für sie optimierte Technik. Nicht immer haben DisplayPort und HDMI die volle 4K-Unterstützung.

Canon
Canon bietet  mit seinem Vorzeigemonitor mehrere Dual Link 3G-SDI Eingänge und DisplayPort 1.1a, der eine der ersten Versionen war und kein 4K kann. Also im Grunde geht man davon aus, dass derjenige, der diesen Monitor kauft, auch in einer SDI-Umgebung zu Hause ist.

Was Sony und Canon sonst noch alles können
Underscann und Overscann, blue-only, flippen und Fernsteuerung, Signalanalyse und viele sonstige nützliche Dinge im Fernsehstudioalltag, die aber bei der mittleren bis kleinen Videoproduktion keine Bedeutung haben. Wichtige Dinge, wie das Verarbeiten von 3D-LUTs kann auch der Eizo.

Fazit:
Schon meinte man mit dem Eizo CG318-4K ColorEdge das technisch perfekte Schnäppchen des Jahres vor sich zu haben, bis man erkennt, dass man zumindest bis ein Upgrade auf HDMI 2.0 vorliegt, auf ein einziges, aber elementares Element, nämlich die Vollbilddarstellung bei 50 Vollbildern pro Sekunde und 4K, verzichten muss. Im normalen HD-TV Modus schafft das auch der bisher verbaute HDMI 1.4 Eingang, aber was macht man dann mit seinen schönen 4K-Bildern für die extra – mit Blick in die Zukunft – einen neue Kamera angeschafft wurde. Diese Einschränkung gilt nur beim Color Grading und der Vollbildansicht mit z.B. DaVinci Resolve und UltraStudio 4K Extrem, nicht beim normalen Betrieb über Thunderboldt/DisplayPort.
Im Ganzen betrachtet bietet der Eizo jedoch, zu einem großen Teil fast dieselbe Leistung wie seine fünf Mal teureren Kollegen. Der Unterschied zwischen für Fernsehanstalten optimierten TV-Monitoren und Computer-Monitoren ist somit nur in der Ausstattung und in den Zusatzleistungen ein grundsätzlicher, in der technischen Bilddarstellung gibt es aber hier wie dort verschiedene Wege zum optimalen Bild, die jedoch meist LCD plus optimierte Hintergrundbeleuchtung heißen, mit der Möglichkeit zur einfachen Kalibrierung und dem Verwenden von 3D-LUTs.

 

Autor: Thomas Hezel