M a s t e r i n g  -  e i n  E x k u r s

... und ein paar Gedanken zu den Themen "Pegel" und "Lautheit" ...

Das beste Rezept für professionelles Mastering lautet

 

- ein geeigneter Raum

 

- gute Lautsprecher und

 

- hochwertige Signalverarbeitungstechnik.

 

Aber noch wichtiger sind beim Mastering die Entscheidungen, wenn es darum geht, das Beste aus einer Aufnahme zu machen: Die Entscheidung zwischen statischer und dynamischer Entzerrung. Die Entscheidung für die richtige räumliche Feinabstimmung. Die Entscheidung für das Format, auf das die Produktion optimiert werden soll. Die Entscheidung für die richtigen Tools. Die Entscheidung, den Ohren zu vertrauen, anstatt zu versuchen, die aktuelle Produktion noch lauter klingen zu lassen als irgendeine gerade veröffentlichte Single - Die Entscheidung für die Musik.

Pegel in digitalen Medien

 

Bei der digitalen Produktion wir der Pegel eines Signals üblicherweise Sample für Sample gemessen. Der größtmögliche Pegel bei der Digitalisierung beträgt 0 dBFS (Dezibel Full Scale oder auch Full Scale Digital, FSD), und es muss auf jeden Fall verhindert werden, dass mehrere Samples hintereinander diesen Wert annehmen. Allerdings kann es auf digitaler Ebene sehr wohl Signale geben, für deren Wiedergabe mehr Headroom erforderlich ist als für eine bis 0 dBFS ausgesteuerte Sinuswelle. Solche Signale bezeichnen wir als »0 dBFS+«, und wenn sie mit CD-Playern aus dem professionellen oder dem Consumerbereich wiedergegeben werden, kommt es zu erheblichen Verzerrungen. Viele dieser Geräte verschlimmern den hörbaren Schaden noch: Sie sperren, und es dauert eine gewisse Zeit, bis die Verzerrung wieder aufgehoben wird. Das Signal erzeugt also eine »Verzerrungsfahne«.

Zum Zeitpunkt der Erfindung der Compact Disc wurde in der Regel auf analoge Bänder gemischt. Beim Mastering wurde das Signal wiederum auf der analogen Ebene mit Kompressoren und Entzerrern bearbeitet und erst dann digitalisiert. Der Signalpegel und der Headroom des A/D-Wandlers wurden auf der digitalen Ebene erfasst. Damals war das Zählen aufeinander folgender Sample durchaus geeignet, um Verzerrungen zu erkennen, da alle direkt aus dem A/D-Wandler kommenden Signale dem Sampling-Theorem entsprachen.

Heute haben sich die Produktionsbedingungen geändert. Aber noch immer wird der Pegel auf die traditionelle Weise gemessen. Die Aufnahmen, die ein Masteringstudio erhält, sind bereits digitalisiert, und es besteht die konkrete Möglichkeit, dass sie aufgrund von Clipping oder vorher eingesetzten, fehlerhaft arbeitenden digitale Prozessoren oder Plug-Ins zu diesem Zeitpunkt bereits »out of band«-Komponenten enthalten. Hinzu kommt, dass der Toningenieur im Masteringstudio möglicherweise ganz routiniert zu seinem eigenen Arsenal »digitaler Waffen« greift – was aber einen Schuss ins Dunkle bedeutet, da keine Anzeigen zur Verfügung stehen, die über die mögliche Beschädigung des resultierenden Signals Auskunft geben könnten.

 

Digitale "Qualitätsvernichtungswaffen"


Da es an Werkzeugen für wirklich intelligente Pegelbegrenzung fehlt, hat sich das Mastering vom Veredelungsprozess zu einem Rüstungswettlauf um die größtmögliche Lautheit verwandelt. Dieser Rüstungswettlauf hat inzwischen eine Stufe erreicht, auf der das Signal nach dem Mastering schon durch die bloße Weiterleitung und Wiedergabe verzerrt wird, so dass letzten Endes die Qualität des Produkts und der Hörer leiden. Er bezahlt den vorausgegangenen Kampf um die größte Lautheit durch frühere Ermüdung seines Gehörs.

Und mögen digitale Signalprozessoren auch vertraute Namen wie »Kompressor« oder »Limiter« tragen, so lässt sich nicht auszuschließen, dass sie das Signal auf der digitalen Ebene in einer Weise beeinträchtigen, wie es bei ihren analogen Vorgängern niemals der Fall gewesen wäre.


Abrüstung im Studio


Nachdem wir bei einer Reihe aktueller CD-Produktionen die Veränderung des Pegels im Verlauf der Produktion analysiert haben, bleibt festzuhalten, dass es nicht ein einzelner Produktionsschritt oder ein bestimmtes Gerät ist, das bei Aufnahme, Abmischung oder Gerät die beschriebenen Probleme verursacht.
Digitale Übersteuerungen können vielmehr an mehreren Stellen im Produktionsablauf auftreten: In einem Audio-PC (normalerweise am Mix-Bus der Software oder innerhalb von Plug-Ins), bei verschiedenen Dynamikprozessoren oder sogar als unerwünschter Ballast in digitalen Klangbibliotheken. Bei Bassdrums oder Snares mag Clipping sogar als kreatives Stilmittel eingesetzt werden – aber wenn ein solches Sample dann im weiteren Produktionsverlauf auf den maximalen Pegel angehoben wird, kommt es zu unvorhergesehenen Ergebnissen.

Für den abmischenden Toningenieur lautet der Rat einfach: Bim digitalen Mischen sollten die Pegelspitzen nie höher als -3 dBFS sein; alles andere ist Sache des Mastering. Als Alternative kann auch analog gemischt werden.

Der für das Mastering verantwortliche Toningenieur befindet sich einer komplizierteren Situation. Zunächst einmal sollte er die zu masternden Aufnahmen über eine mit Oversampling arbeitende Anzeige überwachen. Wenn er dann häufige 0 dBFS+-Pegelspitzen entdeckt, sollte er sie zunächst entfernen, bevor er andere Eingriffe vornimmt – sogar vor der Sampleratenkonvertierung. Wenn es darum geht, den Pegel für das endgültige Master festzulegen, sollten subtilere Werkzeuge als einfache Samplezähler eingesetzt werden. Mit Oversampling arbeitende Aussteuerungsmesser und Histogramme sind hierfür geeignet. Ein Limiter auf dem neuesten Stand der Technik wie der im Mastering 6000 integrierte BrickWall 2 zeigt den 0 dBFS+-Status an und kann Verzerrungen im weiteren Signalfluss vermeiden.

Lautheit


Wissenschaftlichen Gremien haben ein neues, aussagekräftiges Verfahren zur Messung von Lautheit entwickelt, das sich sowohl für Musik als auch Sprache eignet und ebenso für die Darstellung wie auch die Kontrolle bei der Signalbearbeitung eingesetzt werden kann.

Lautheit ist – im Gegensatz zum Signalpegel – eine subjektive und daher schwieriger zu messende Größe. Dies gilt natürlich in besonderem Maße für Signale, die sich über die Zeit verändern – wie Musik. Bei der Einschätzung der Lautheit kommt es selbst innerhalb einer weitgehend homogenen Gruppe von Zuhörern zu Unterschieden, die wir als »Between Listener Variability« (BLV) bezeichnen. Bei unterschiedlichem Alter, kulturellen Unterschieden usw. sind die Varianzen noch deutlicher. Aber auch die Wahrnehmung der Lautheit durch eine einzelne Person ist in gewissem Rahmen variabel. Hier spielen unter anderem Aspekte wie Müdigkeit, Stimmungslage und Aufmerksamkeit eine Rolle. Diese Art der Varianz nennen wir »Within Listener Variability« (WLV).

Ein Messverfahren für Lautheit kann also nur dann einen universellen Wert haben, wenn es auf umfangreichen, wahrnehmungsbasierten Referenztests und reproduzierbaren Ergebnissen beruht, die hierfür geeignete statistische Analysen durchlaufen haben.

Dementsprechend basierenden beispielsweise die Algorithmen von TC nun auf solchen Wahrnehmungsmessungen und nicht auf vereinfachenden Messungen der Spitzen- oder Mittelungspegel, wie man sie bei Variationen des LEQ-Verfahrens findet.

Signalverarbeitung, Messung und Überwachung integriert


Um die Nuancen einer Aufnahme zu erhalten und Details mit niedrigen Pegeln herauszuarbeiten, anstatt einfach nur Pegelspitzen zu »bekämpfen«, sollten Sie die Anwendung innovativer Dynamikprozessoren in Erwägung ziehen, beispielsweise DXP im MD4-Algorithmus. DXP eignet sich zum Beispiel für klassische Musik, akustische Musik, Filme und Sprachbeiträge.

Sie sollten sich jedoch stets Zeit für einen wichtigen Vergleich nehmen: Geringe Eingriffe in die Dynamik bei normaler Lautstärke – und eine stärkere Veränderung bei geringerer Lautstärke. Vergleichen Sie die Alternativen bei gleicher Lautheit. Natürlich arbeiten Mastering-Toningenieure schon seit langem so, aber inzwischen ist dieses Konzept weiterentwickelt worden. Heute sollte die Lautheit so kalibriert werden, dass mit einer Kalibrierung Pegelmessung, Monitoring und Signalverarbeitung aufeinander abgestimmt werden. Das Ziel: eine bessere Soundqualität und mehr Konsistenz bei einer Vielzahl von Ausgabeformaten. Dieser integrierte Ansatz sollte letztendlich gewährleisten, dass die Ohren des Toningenieurs beim Mastering eine zentrale Rolle spielen.
 


Quelle: http://www.tcelectronic.com