Test-Tutorial: New Audio Technology Spatial Audio Designer

Musik wird zunehmend mobil über Kopfhörer konsumiert. Ein zweiter Trend geht in Richtung Mehrkanalsurroundanlagen. Wie wäre es nun, wenn man beides miteinander kombinieren könnte? 5.1-Surround oder gar 3D-Audio und das auch über Kopfhörer? Der Spatial Audio Designer verspricht genau das.

Der Spatial Audio Designer soll es möglich machen, eine kinotaugliche Mehrkanalabmischung bis 22.2 für reale Lautsprecher zu erschaffen und diese als Zweikanalsignal mit voller Raumwahrnehmung in Echtzeit über den Kopfhörer zu übertragen. Dieser virttuelle 3D-Audiostream lässt sich zudem als Zweikanalaudiodatei exportieren. Die 3D-Anordnung der Instrumente einschließlich ihrer Bewegungen im Raum soll bei der Virtualisierung erhalten bleiben. Um diesen 3D-Sound zu genießen, soll auf Nutzerseite nicht mehr als ein einigermaßen tauglicher Kopfhörer erforderlich sein.

Der Spatial Audio Designer geht dabei über 5.1- oder 7.1-Surround hinaus und bietet auch exotische Setups, bei denen zusätzliche Lautsprecher etwa über dem Kopf oder am Boden platziert sind. Apropos Lautsprecher: Es handelt sich bei den Virtualisierungen u. a. um die Lautsprecheranordnungen verschiedener realer Studioumgebungen wie der ARRI Stage One, MSM München sowie einiger Ü-Wagen und Projektstudios. Neben der Mehrkanalanwendung soll es dadurch auch möglich sein, normale Stereoabmischungen über Kopfhörer vorzunehmen – ohne die störende Im-Kopf-Lokalisation der Signale, die es unter herkömmlichen Bedingungen unmöglich macht, unter dem Kopfhörer eine Abmischung zu erstellen, die hinterher auch über Lautsprecher gut klingt.

Alles in allem verspricht der Spatial Audio Designer ein Leistungsspektrum, was in professioneller Qualität bislang lediglich von teuren Hardwarelösungen angeboten wird, wie etwa dem Smyth Research Realiser A8, der um die 3000 Euro gehandelt wird und (als Einzelgerät) auf 8 Kanäle begrenzt ist. (Wir haben den Realiser bereits getestet; einen Link dazu finden Sie am Ende des Artikels). Am Ende des Tests werden wir einen Vergleich ziehen.

Zunächst soll jedoch geklärt werden:

  • Wie funktioniert die Software in der Praxis; ist sie benutzerfreundlich und gut beherrschbar?
  • Welche Anwendungsgebiete eröffnen sich?
  • Wie überzeugend klingen die virtuellen 3D-Welten unter dem Kopfhörer?
  • Wie hoch sind die Anforderungen an die CPU? Brauche ich einen neuen Super-Rechner?

Verwendete Kopfhörer: Ultrasone Pro 900 und Beyerdynamik DT 150. Die Testumgebung: Cubase 6.5 auf einem Intel Mac 8×2,8GHz unter OSX 10.8.4 und 10.6.8.

3D-Sound über Kopfhörer: Ein Rückblick

Surround-Sound oder gar 3D unter Kopfhörer ist eine Sache, die schon in den 70ern ein heißes Thema war und in den letzten Jahren dank zunehmender Rechenleistung auch als softwarebasierte Lösung wieder ins Blickfeld der Studiobetreiber, Rundfunkanstalten und Konsumenten gerückt ist.

In der 70ern gab es eine Reihe von Kunstkopfaufnahmen. Dabei platzierte man in de Ohrmuscheln einer Kopfskulptur Mikrofone. Man hatte erkannt, dass die menschliche Fähigkeit, Schallquellen räumlich zu lokalisieren, durch das unbewusste Identifizieren feiner Zeitverschiebungen, Lautstärkeabweichungen und Färbungen des Frequenzspektrums ermöglicht wird. Zu diesen „Verbiegungen“ des Audiosignals kommt es durch die Weiterleitung von Schallwellen über die Körper- und Kopfform, insbesondere über die Form der Ohrmuschel. Frontal, seitlich oder von hinten auf den Kopf projizierte Schallwellen werden in ihrer Frequenz, Amplitude und dem zeitlichen Kontext des Gesamtsignals während der Ablenkung durch die Kopfform unterschiedlich transformiert. Nach der Umwandlung in elektrische neuronale Impulse (im Innenohr) werden diese geringfügigen Verformungen des Klangbildes vom Hörzentrum der Großhirnrinde in eine räumliche Schallquellenwahrnehmung übersetzt. Voraus geht ein mehrjähriger Lernprozess, der bereits mit der Geburt beginnt. Signale, die über einen Kopfhörer frontal in den Gehörgang immitiert werden (wie beim herkömmlichen Kopfhörerbetrieb), werden hingegen weder vom Körper, dem Kopf noch der Ohrmuschel abgelenkt. Daher kann unsere akustische Wahrnehmung hier keine räumliche Lokalisation erkennen und das Signal wird auch bei Stereoaufnahmen, die Hallanteile beinhalten, insgesamt als im Kopf befindlich wahrgenommen; bei Stereosignalen auf einer Achse zwischen den Ohren. Bei allem Genuss von Direktheit und Detailreichtum, den ein guter Kopfhörer bieten kann, führt diese Im-Kopf-Lokalisation zu einer rascheren Ermüdung.

Anders sieht es bei Kunstkopfaufnahmen aus, bei denen die Schallwellen ähnlich wie bei einem echten Kopf vor der Abnahme durch die Mikrofone abgelenkt werden: Die Verfärbungen und zeitlichen Verschiebungen des Frequenzgangs sind im Stereoaudiosignal enthalten. Von Lou Reed gibt es eine Kunstkopf-Liveaufnahme, bei der man hört, wie sich Schritte nähern und direkt neben dem Ohr des Hörers eine Zigarette angezündet wird. Das Kunstkopfaufnahmeverfahren konnte sich jedoch nicht durchsetzen, da die Beschränkung auf zwei Abnahmemikrofone für die beiden Ohren für die gesamte Band bzw. das komplette Orchester keine detaillierten Abmischungen erlaubte.

Heute gibt es jedoch Software, die es erlaubt, Schallquellen (bzw. Audiospuren eines Sequencers) in einem virtuellen zwei- oder dreidimensionalen Feld um den Hörer herum zu platzieren. Man spricht bei dieser 3D-Simulation nun nicht mehr von (virtueller) Kunstkopftechnik, sondern von einer (frei übersetzt) kopfformabhängigen Umwandlung der Audiosignale. Das Zauberwort heißt Head Related Transfer Function (HRTF). Und hier sind wir bei unserem Testkandidaten angekommen.

Installation

Diese vollzieht sich in den Teilschritten: User Account erstellen, Hardware-ID generieren, SAD-Software generieren und herunterladen. Das läuft alles reibungslos. (Der Rest dieses Abschnitts ist nur für Leser interessant, die sich bereits zum Kauf entschlossen haben und eine technische Hilfestellung benötigen. Alle anderen können bei Kapitel 3 weiterlesen).

Nach dem Erwerb und Einrichten eines User-Accounts auf der Homepage des Herstellers lädt man dort zunächst eine Software herunter, die für den Computer, auf dem der SAD verwendet werden soll, eine Hardware-ID erstellt. Alternativ kann vom sogenannten Hardware-ID-Tool auch die ID eines handelsüblichen USB-Sticks genutzt werden. Der SAD kann dann immer auf dem Rechner verwendet werden, an dem dieser USB-Stick eingesteckt ist. Mit dieser zweiten Lösung ist man mobiler. Darüber hinaus muss man immer, wenn am Rechner, zu dem die Hardware-ID passt, eine Komponente ausgetauscht werden muss (etwa eine interne Festplatte oder die Grafikkarte aufgrund eines Defekts), eine neue ID generieren, was ebenfalls für die Alternative USB-Stick spricht.

spatial_audio_designer_01

Für das Herunterladen des Hardware-ID-Tools sollte man einige Minuten einkalkulieren. Auf meinem Mac wurde nicht angezeigt, dass das Programm noch nicht vollständig heruntergeladen war und ein vorzeitiger Versuch, das ZIP-File zu entpacken schlug fehl, ohne dass die Ursache ersichtlich war. Also einfach abwarten, bis die Datei „Hardware ID Tool Mac.zip“ vollständig heruntergeladen ist (ca. 29MB). Zwischendurch erscheint im Downloadordner unter Umständen eine Datei mit der Namensendung „zip.part“. Wenn das bei Ihnen auch so sein sollte, so ist das ein Indiz dafür, dass der Downloadvorgang noch läuft.

Anschließend startet man die Identifizierungssoftware, überträgt die gewünschte ID in die betreffende Zeile des User-Accounts und startet dort die Generierung der persönlichen (zur ID passenden) SAD-Software. Das kann wiederum zwischen 30 und 60 Minuten dauern. Tipp: Für Firefox-User, die das Browser-Plug-in „Down them all“ verwenden, gestaltet sich die Angelegenheit erheblich beschleunigt. Ist die Software generiert, vollzieht sich das Herunterladen der etwa 430MB großen Datei zügig. Entpacken und Installieren ist nun reine Routine.

Der Spatial Audio Designer im Überblick

SAD besteht aus drei Plug-ins, dem Send-, dem Mix- und dem Output-Channel-Modul, die in den Formaten VST2.4, AU2.0 und RTAS vorliegen (laut Herstellerangabe folgen in Kürze VST3 und AAX). Auf Mac und PC laufen diese Plug-ins sowohl in 32Bit- als auch in 64Bit-Umgebungen (RTAS wie gewohnt nur 32Bit).

Das Send-Modul 3D SAD Send wird idealerweise in einen Post-Fader-Effektslot des Kanals gelegt (host-abhängig), sodass alle in der Effektkette vorgeschalteten Plug-ins und ebenso Solo/Mute-Buttons, sowie die Ausgangslautstärke mit abgegriffen werden. (Eine separate Solo/Mute- und Lautstärkeregelung findet sich zusätzlich im Mix-Modul, sodass auch bei Hosts ohne Post-Fader-Effektslot keine Probleme auftreten.)

Das zweite Modul 3D SAD Mix wird in einem Stereokanal platziert. Im Mix-Modul laufen die Ausgangssignale aller auf dieses Modul gerouteten Send-Module zusammen und werden schließlich als Zweikanal-Headphone-3D-Signal weitergeleitet. Das Routing vollzieht sich dabei unabhängig vom Sequencer-Routing (Näheres dazu in Kapitel 4). Im Mix-Modul wird auch das Format festgelegt (5.1- oder 7.1-Surround etc.) sowie die virtuelle Studioumgebung (mit Lautstprechersetup) gewählt.

Das 3D SAD Channel Out Modul benötigt man nur, wenn der Multikanal-SAD-Mix über Studiomonitore abgehört werden soll. Im Gegensatz zum im Mix-Modul generierten Headphone-3D-Sound, der (aktuell) durch virtuelle Studioumgebungen mit bis zu 24 Lautsprechern generiert wird, ist die Anzahl der Ausgangskanäle für echte Monitore bei Verwendung eines (!) Ausgangsmoduls auf die Mehrkanalfähigkeit des Sequencers begrenzt. Bietet dieser nicht mehr als 5.1-Surround kann man über ein einzelnes Ausgangsmodul kein 7.1-Surroundsignal ausgeben. Allerdings ist es möglich, parallel mit mehreren Ausgangsmodulen zu arbeiten, sodass über diesen Umweg die Beschränkung des Host umgangen werden kann: Ein Outputmodul in einem 5.1-Suroundausgang und ein weiteres in einem Stereoausgang angesteuert ergeben zusammen 7.1-Surround. Die Kanäle wie L/R/C/LFE usw. aus dem Mix-Modul können hierbei frei in einer beliebigen Anzahl von Channel-Out-Modulen geroutet werden. Auf diesem Wege sind auch Mehrkanalabhören über 7.1 hinaus bedienbar. Um mehr als 8 Ausgangskanäle zum Rendern oder Abhören mit echten Lautsprechern nutzen zu können, benötigt man eine Producer-Plus-Lizenz.

Praxis

Uns geht es hier jedoch weniger um die Einbindung einer physikalischen Mehrkanalanlage, sondern primär darum, einen 3D-Mix für Kopfhörer zu erstellen. Und los geht’s:

Um die 3D-Lokalisation zu testen, nehmen wir zunächst eine einfache Hi-Hat-Figur, die wir als Mono-Audio-Track anlegen. In einen Insert-Effektslot dieses Tracks laden wir das Send-Modul.

spatial_audio_designer_02

Zur besseren Übersicht geben wir dem Kanal einen Namen, einzutragen im Namensfeld des Sens-Moduls.

spatial_audio_designer_03

Unter Mix steht in der Abbildung bereits „Mix 1“. Das Mix-Modul mit diesem Namen habe ich bereits in einen Stereokanal geladen, sodass nun das Send-Modul entsprechend adressiert werden kann. Das Mix-Modul sieht folgendermaßen aus:

spatial_audio_designer_04

Oben rechts habe ich den Namen „Mix 1“ eingegeben. Darunter ein 5.1-Surround-Preset ausgewählt. Andere Presets stehen zur Wahl:

spatial_audio_designer_05

spatial_audio_designer_06

spatial_audio_designer_07

spatial_audio_designer_08

spatial_audio_designer_09

Fährt man mit dem Mauszeiger über das Logo eines Presets, so wird die Lautsprecherkonfiguration grafisch angezeigt – sehr praktisch, vor allem bei den exotischen Formaten (zu sehen z. B. in der Abbildung oben beim Preset „11.1 Wide“). Zurück zum Mix-Modul: Dieses ist zunächst nur mit unserer Mono-Hi-Hat besiedelt. In der zugehörigen Send-Kanal-Parameterreihe kann nun eingestellt werden: Die Lautstärke, der Anteil, der an den Subwoofer gesendet werden soll (konfigurierbar) …

spatial_audio_designer_10

…, die Links/Rechts-, Vorne/Hinten- und Oben/Unten-Position, sowie die Breite des Signals für die X-, Y- und Z-Achse (Div x, Div y, Div z). Eine Verbreiterung unseres vorne links platzierten Monosignals auf der X-Achse bewirkt beispielsweise, dass Signalanteile nun auch über die Center-Position abgegeben werden. Angaben zur Verteilung des gewählten Sendkanals auf die Lautsprecher finden sich links neben den großen X/Y-Displays:

spatial_audio_designer_11

Die beiden X/Y-Displays bieten einen Blick von oben und von hinten. Im linken Display wird die Position der Schallquelle links/rechts und vorne/hinten angezeigt, im rechten Display links/rechts und oben/unten. Die Startposition unserer Hi-Hat ist vorne links und auf Ohrhöhe:

spatial_audio_designer_12

Die Farbgebung des für 3D-Panoramafahrten animierbaren Anfassers (aktuell pink) kann geändert werden – sinnvoll um später eine Vielzahl von Eingangssignalen besser unterscheiden zu können.

spatial_audio_designer_12b

Um einen 3D-Kopfhörersound zu erhalten benötigen wir jedoch außer der Positionierung im Raum noch eine virtuelle Studioumgebung mit Monitoren. Hierzu aktivieren wir „Virtualize Speaker“ und suchen uns ein passendes Preset. Diverse Regieräume und andere Umgebungen stehen zur Verfügung.

spatial_audio_designer_13

spatial_audio_designer_14

spatial_audio_designer_15

spatial_audio_designer_16

Diese unterscheiden sich sehr stark in ihrer Klangcharakteristik. Die Größe und Reflexionseigenschaften der Räume geben sehr individuelle Umgebungen ab. Mir persönlich haben (zunächst und speziell für die erste Probe mit der Hi-Hat) die Presets „Studio Magazin“ und „THS Studio“ am meisten zugesagt, da diese für meinen Geschmack (hier) am neutralsten klingen. Mit dem Dense-Regler Dense lassen sich die Raumeigenschaften verstärken. Eine Erhöhung der Dense-Parameterwerte führt zu einer Verringerung der Direktsignale der einzelnen Lautsprecher und zu einer Verstärkung des Raumklangs, sowie zu einer Anhebung des unkorrelierten Tiefensignalanteils – auf dezente Weise und nicht zu verwechseln mit einer ausgewachsenen Hallsimulation. (Reverbs aller Art sollte man vorher im Mix einbinden und dann per Send-Modul ebenfalls zum Mix-Modul routen.)

Alle Parameter des SAD-Mix-Moduls sind automatisierbar. Dies betrifft auch Positionsänderungen der Instrumente (Send-Kanäle) durch Klicken und Ziehen der farbigen Punkte in beiden X/Y-Feldern. Dabei ist allerdings zu berücksichtigen, dass zum Aufzeichnen der Automation nicht das Mix-Modul, sondern das betreffende Send-Modul in den Aufnahmezustand versetzt werden muss. Die Automationsdaten für die einzelnen Instrumente werden nämlich in deren Send-Modulkanälen aufgezeichnet. Zur Überprüfung der Surroundlokalisation lassen wir unsere Hi-Hat im Uhrzeigersinn um uns herumwandern:

 

Die Klangqualität der Demo lässt fomatbedingt zu wünschen übrig. Üblicherweise werden hier MP3s mit 128kBit/s verwendet. Wichtige Audiodemos wurden nachfolgend aber zur besseren Beurteilung mit dem qualitativ hochwertigem Fraunhofer-Codec in 320kBit/s kodiert, weshalb es je nach Internetverbindung zu etwas längeren Ladezeiten kommen kann. Diese Beispiele sind jeweils separat gekennzeichnet.

Dennoch wird bei diesem ersten Beispiel schon deutlich, dass die Vorne/Hinten-Lokalisation sehr gut funktioniert. Ein kleiner Schwachpunkt ist die frontale Lokalisation über den Center-Speaker sowie die rückwärtig zentrale Position. Insbesondere beim Center-Speaker tritt wieder die altbekannte Im-Kopf-Lokalisation auf. Es sei jedoch angemerkt, dass auch der Smyth Research Realizer mit diesem Problem zu kämpfen hat.

Im folgenden Audiodemo bleibt die Hi-Hat statisch links vorne, die Snare umkreist den Hörer gegen den Uhrzeigersinn (alle 4 Takte), die Bass Drum wandert zentral von vorn über die Hörerposition in der Mitte nach hinten:

 

Hier die Snare alleine …

 

… und, etwas weniger spektakulär aber dennoch bemerkenswert, die Bassdrum, wie sie von vorn nach hinten/unten zentral durch den Hörer hindurchwandert:

 

In der nächsten Audiodemo kommen Glöckchen und eine zum Percussioninstrument umfunktionierte Flasche hinzu. Beide habe ich zunächst mit etwas Echo und Hall versehen und dann im Mix-Modul das Preset von „5.1 Surround“ zu „7.1 Height“ gewechselt, die virtuelle Studioumgebung zu „Luna Studio 1“:

 

spatial_audio_designer_17

Bevor es zum Vergleich mit dem Smyth Research Realiser A8 kommt, soll das Output-Modul noch kurz aufgezeigt werden. Wie bereits erwähnt, wird das Output-Modul nur benötigt, wenn das Signal des Mix-Moduls zu einer Mehrkanalabhöranlage weitergeleitet werden soll. In diesem Fall verzichtet man im Mix-Modul auf die virtuelle Studioumgebung. Bedeutung gewinnt hingegen das dort vorzunehmende Subwoofer-Management (LFE). Im Output-Modul stehen so viele Kanäle zur Verfügung, wie sie von dem entsprechenden Ausgangskanal des Sequencers bereitgestellt werden, d. h.: In einem Stereoausgang stehen zwei Kanäle bereit, in einem 5.1 Surroundausgang sechs. Per Default wird die Standardmonitorkonfiguration geladen (also L/R/C/LFE/LS/RS bei 5.1-Surround). Es ist jedoch auch möglich, exotische Abhören einzurichten. Jeder Ausgangskanal kann einem beliebigen Monitor zugewiesen werden, beispielsweise einem zweiten Subwoofer oder einem Über-Kopf-Monitor, der dann über das entsprechende exotische Preset des Mix-Moduls das passende 3D-Teilsignal erhält.

spatial_audio_designer_18

Vergleich mit dem Smyth Research Realiser A8

Zum Abschluss des Tests will ich Ihnen den angekündigten Vergleich nicht vorenthalten, obwohl dieser nicht ganz fair ist und aus verschiedenen Gründen relativiert werden muss:

  1. Der Realiser kostet beinahe das zehnfache der SAD-Software – es wäre also schon eine Sensation, wenn unser Testkandidat hier mithalten könnte.
  2. Der Realiser bietet die Möglichkeit, über mitgelieferte In-Ohr-Mikrofone individuelle HRTF-Files in ausgewählten Aufnahmeräumen zu erstellen. Dieses individuelle Einmessen (welches zusätzliche Kosten verursacht und akribisch vorgenommen werden muss) habe ich ebenfalls genutzt und mische seitdem mit dem auf meine Kopf- und Ohrmuschelform zugeschnittenen Preset via Kopfhörer ab – meist übrigens gar nicht in Surround, sondern zu 80% in Stereo. Das funktioniert dank Realiser einwandfrei und nach ein wenig Eingewöhnung besser als mit meiner echten Abhöranlage. Diese habe ich übrigens ebenfalls via In-Ohr-Mikros eingemessen – das Ergebnis war aber aufgrund der Raumakustik, die mit dem externen Studio nicht mithalten konnte, schlechter und weniger brauchbar. Die Individualisierung der HRTF beim Realiser bringt für den Anwender den Vorteil mit, dass anstelle standardisierter Berechnungen die persönliche kopfformbedingte Transformation der Audiosignale in das HRTF-File geschrieben wird, was optimale Ergebnisse für die persönliche Nutzung ergeben sollte. Für Dritte, also Hörer und Konsumenten, kann dies allerdings von Nachteil sein. Standardisierte HRTF-Files, die quasi auf errechnete Durchschnittsohren zugeschnitten sind, werden statistisch gesehen bei mehr Musikkonsumenten zufriedenstellende Hörerlebnisse erzielen als individuelle Einzel-Captures.
  3. Weiterhin ist der Realiser nicht dafür konzipiert, Surround- oder 3D-Abmischungen als Stereoaudiodateien auszugeben. Er verfügt nur über einen Kopfhörerausgang, den ich also mit dem Eingang meines Audiointerfaces verbinden muss, um das Surround-Kopfhörersignal wieder abzugreifen – diese unkonventionelle Arbeitsweise bringt einen geringen Verlust an Audioqualität mit sich.
  4. Beim Realiser liegt in meinem Fall ein 5.1-Preset vor, es stehen also keine Über-Kopf-Monitore zur Verfügung, wie ich sie bei der spezialisierten 7.1-Abmischung via SAD eingesetzt habe.
  5. Ergänzend sei noch erwähnt, dass der Realiser über das sogenannte Headtracking verfügt. Dabei überträgt ein am Kopfhörer montierter Sender Informationen der Kopfbewegung an den Realiser, der diese in das Surround-Kopfhörersignal einrechnet. Schaut man also nach hinten zu einem Surround-Monitor, so dreht sich auch die virtuell errechnete Monitorposition mit, und der Surround-Monitor wird in dem Moment, in dem man mit der Nasenspitze darauf zielt, als frontal platziert wahrgenommen. Ein verblüffender Effekt, der die Echtheit des Surround-Kopfhörererlebnisses ungemein verstärkt, jedoch für die Ausgabe von Audiodateien für Dritte ungeeignet ist. Den Hörern würde vermutlich schwindlig, wenn sich die Audiowelt plötzlich vollständig dreht, während sie bewegungslos im Sessel sitzen. Das Headtracking habe ich daher ausgeschaltet. Headtracking kann im Übrigen nur hardwareunterstützt funktionieren (Sender – Empfänger – Software) und ist daher für den rein softwarebasierten Spatial Audio Designer kein Thema.

Um ein eingermaßen vergeichbares Klangbeispiel beider Kandidaten zu erhalten, habe ich für den Realiser-Mix die Kanäle aller Instrumente auf einen Surroundausgang von Cubase geroutet und dann mit den Suroundpannern in etwa gleiche Signalfahrten aufgezeichnet wie zuvor im SAD-Mixer-Modul. Eine exakte 1:1-Kopie des Audiogeschehens im Raum ist dennoch nicht geglückt und die unterschiedlichen virtuellen Studioumgebungen tragen ihr Übriges hierzu bei.

Hier zunächst noch einmal die SAD-Version …

 

… und nun der Realiser:

 

Der Realiser klingt hier im Vergleich weniger transparent in den Höhen aber dennoch etwas räumlicher. Beides ist auf die unterschiedlich klingenden virtuellen Studioumgebungen und auf Abweichungen zwischen den von mir eingegebenen 3D-Pannerfahrten zurückzuführen und ließe sich noch korrigieren. Wenn man sich die beiden Audiodemos genau anhört und sich einmal auf die Hi-Hat konzentriert, stellt man in beiden Fällen fest, dass diese gut lokalisierbar um den Kopf herumwandert – mit den bereits erwähnten Schwächen in der Center-Speaker-Position (und auch rückwärtig zentral). In dieser ersten Gegenüberstellung wird bereits deutlich, dass der Spatial Audio Designer sicher nicht signifikant hinter dem Realiser zurücksteckt.

Ein zweiter Versuch soll mehr Klarheit verschaffen. Diesmal habe ich eine fertige Stereomischung eines Songs benutzt und zunächst ohne das SAD-Routing die Stereo-Instrumentengruppen in einer 5.1-Gruppe zusammengefasst, von dort zu einem 5.1-Surroundausgang geroutet und dann mit den Cubase-Surroundpannern der Instrumentengruppen Bewegung in die Abmischung gebracht. Dabei habe ich zunächst den Kopfhörer links liegen lassen und mit Monitoren gearbeitet. Der Vorteil dieser Vorgehensweise ist, wie wir noch sehen werden, eine bessere Vergleichbarkeit mit dem Realiser. Außerdem sind Surroundpannerautomationen mit den On-Board-Mitteln von Cubase weniger rechenintensiv als SAD-interne Pannerfahrten. Trotz der Mehrprozessorfähigeit der Software kann es hier bei starker Ausnutzung des Pannings und schnellen Bewegungen vereinzelt zu Audioaussetzern kommen.

Zur Verdeutlichung: Die Gruppenspuren in Cubase mit den Startpositionen der Surroundpanner (kleine Icons links oben in den Kanalzügen). Mit einem Klick auf das Bild können Sie eine vergrößerte Darstellung öffnen:

spatial_audio_designer_17b

Abgesehen von ein paar Lautstärkeanpassungen habe ich an der Abmischung nichts geändert. (Normalerweise würde man hier mehr ins Detail gehen, die Stereogruppen auflösen, die Einzelinstrumente separat im Raum verteilen, Kompressionseffekte (die für die Stereoabmischung notwendig sind) zurücksetzen, Effekte getrennt im Surroundfeld platzieren, EQ-Bearbeitungen neu vornehmen usw. usf.)

Anschließend habe ich das am Kopfhörerausgang des Realisers anliegende Signal über einen Stereoeingang meines Audio-Interfaces aufgezeichnet.

Nun kommt der SAD ins Spiel: In die Cubase-Surroundgruppe, in der alle Instrumente zusammenlaufen, lädt man ein SAD-Send-Modul, legt eine neue Stereogruppe mit einem SAD-Mix-Modul an und routet das Send-Modul der Surroundgruppe zum Mix-Modul. Dort wird es als Sechskanaleingang erkannt. Für das Mixer-Modul nimmt man ein 5.1-Preset.

spatial_audio_designer_19

Über das kleine Ordner-Icon neben der Zahl 6 lässt sich ein Mehrkanal-Preset laden – in unserem Fall „5.1 Music“:

spatial_audio_designer_20

Dieses Preset nimmt uns hier die Arbeit der einzelnen Kanaleinstellungen ab. Die sechs Ausgangskanäle des Send-Moduls werden nun automatisch den entsprechenden Monitoren zugeordnet. Signale, die in der Abmischung zwischen den Monitoren liegen bzw. zwischen ihnen wandern, werden anteilsmäßig auf die virtuellen Monitore verteilt. Die Surroundpannerfahrten des Mixes sollten also 1:1 abgebildet werden.

Anschließend sucht man sich im Bereich „Virtualize Speakers“ ein passendes Preset aus. Verblüffenderweise gefallen mir dieses Mal die Luna-Studio-Presets deutlich besser – die Wahl des Presets mit seinen Raumeigenschaften scheint also sehr abhängig vom Ausgangsmaterial zu sein. Erfreulicherweise bietet der SAD hier eine große Bandbreite von Alternativen. Bei allen Experimenten während dieses Tests habe ich mehrere Lösungen gefunden, die mir auf Anhieb zusagten. Beim Hin- und Herschalten zwischen verschiedenen Studioumgebungen sollte man sich übrigens etwas Zeit lassen. Das Gehör gewöhnt sich an die virtuelle Akustik. Wechselt man diese, scheint die Alternative in den ersten Sekunden immer deutlich schlechter zu klingen, was sich spürbar relativiert, wenn man sich ein wenig hineingehört hat. Mehrfaches Vergleichen ist daher angebracht.

Zu den Ergebnissen dieses zweiten Tests: Vorweg sei gesagt, dass ich überrascht war, wie gut die Kopfhörer-Surroundversionen klingen, obwohl ich beim Abmischen ja über echte Monitore gearbeitet und keine auf die virtuellen Umgebungen zugeschnittene Versionen erstellt habe.

Hier zunächst der Orignal-Stereo-Roughmix …

Normal (128kBit/s):

 

Hohe Qualität (320kBit/s):

 

… nun der Realiser-Mix …

Normal (128kBit/s):

 

… und schließlich der SAD-Mix:

Normal (128kBit/s):

 

Dieses Mal sollte der Vergleich fairer sein, da für Realiser und SAD-Mix die Ausgangssignale und Pannerfahrten identisch sind. Auf weitere korrigierende Maßnahmen wie Mastering habe ich verzichtet.

Ähnlich wie beim ersten Vergleich klingt auch hier der Realiser (mit meiner individuellen Einmessung) weniger höhenreich und räumlich jetzt sogar etwas verwaschener als der SAD-Mix. Detailierte Nachbearbeitungen bei direktem Einbinden der virtuellen Umgebungen sowohl beim Realiser als auch beim SAD würden die Ergebnisse sicher optimieren. Sei’s drum: Das Übertragen einer Surround-Monitorabmischung mittels Spatial Audio Designer in einen Surround-Kopfhörermix hat sich als absolut unproblematisch und im Ergebnis als überzeugend erwiesen. Der Stereomix klingt im Vergleich geradezu flach und lasch. Die Bewegungen der Instrumente im virtuellen Surroundfeld machen das Hörerlebnis spürbar spannender und lebendiger.

Nachtrag: Frequenzanpassungen, Export unter Cubase, Kopfhörerwahl

Frequenzanpassung

Nach einigen weiteren Experimenten mit den virtuellen Studioumgebungen des Mix-Moduls hat sich gezeigt, dass mit einfachen Mitteln Optimierungen möglich sind: Je nach Mix kommen einige Lokalitäten besser zur Geltung, wenn man einen EQ vorschaltet und die Tiefen etwas herunterregelt. Die Erkennung der räumlichen Lokalitaion kann noch etwas verbessert werden, wenn gegenüber der Standardstereoabmischung dezent Höhen hinzugefügt werden. Beides muss nicht den gesamten Mix betreffen, sondern macht sich noch besser, wenn man sich die entsprechenden Instrumente vornimmt, also die Begrenzung der Tiefen bei Bässen und Bassdrum, die Ausarbeitung der Höhen beim Gesang und bei den für den Song wichtigen Instrumenten mit prägendem Höhenanteil.

Export unter Cubase

Bedingt durch das von Cubase völlig unabhängige Routing der SAD-Module, funktioniert der herkömmliche Export über den betreffenden Ausgangskanal nicht. (Mit dem Abhören über diesen Ausgangskanal gibt es hingegen keine Probleme.) Um dennoch exportieren zu können, bieten sich zwei Lösungen an:

  • Man nimmt das Ausgangssignal Cubase-intern über eine Stereospur auf (Eingang der Stereospur = Master Out) oder
  • man führt einen Mehrkanal-Export durch, bei dem alle Kanäle, in denen SAD-Module liegen (also SAD-Sends und SAD-Mixer) mit einem Häkchen versehen werden. Nach dem Export löscht man alle nicht benötigten Einzelexporte und behält den Stereo-Masterkanal-Export.

Kopfhörerwahl

Die 3D-Lokalisation funktionierte unter dem Beyerdynamik DT 150 (aktueller Preis ca. 133 Euro) ebenso gut und überzeugend wie unter dem Ultrasone Pro 900 (handelsüblicher Preis ca. 395 Euro) – wobei letzterer klanglich noch ein Sahnehäubchen draufsetzt. (Einen Link zu unserem Kopfhörer-Vergleichstest finden Sie am Ende des Artikels). Man muss also nicht gleich einen High-End-Kopfhörer mit einplanen, wenn man den 3D-Sound in vollen Zügen genießen will, sondern wird mit dem persönlichen Favoriten gut weiter arbeiten können.

Fazit

Der Spatial Audio Designer von New Audio Technology schlägt ein neues Kapitel in der Geschichte des 3D-Kopfhörersounds auf: Die räumliche Verteilung der Signale gelingt überzeugend – und das in einer Vielzahl von Formaten, die weit über 5.1-Surround hinausgehen und auch diverse Monitorkonfigurationen für Kinoanwendungen (dts) oder Über-Kopf-Lautsprecher mit einschließen. Aber auch Standard-Stereoabmischungen gelingen nun unter dem Kopfhörer, da die störende Im-Kopf-Lokaisation weitgehend ausbleibt. Eine Vielzahl virtueller Studioumgebungen steht zur Auswahl. Zumindest bei den Semi-Profis und Projektstudios werden diese virtuellen Umgebungen die Vor-Ort-Akustik übertreffen.

Die Anwendungsmöglichkeiten sind nicht genreabhängig und vielfältig. Sie reichen vom herkömmlichen Abmischen in Stereo über Surroundproduktionen, die nun auch nachts unter dem Kopfhörer stattfinden können, bis zu 3D-Audio. Gute Surround-Monitoranlagen sind teuer (nämlich rund dreimal so teuer wie eine gute Stereoabhöre) – von einer eingemessenen, professionellen Studioakustik ganz zu schweigen. Die virtuellen Studioumgebungen, die SAD bietet, können hier helfen, eine Menge Geld zu sparen beziehungsweise Dinge möglich zu machen, die aufgrund beschränkter Räumlichkeiten gar nicht möglich wären. Also: Komponieren Sie in 3D oder mischen Sie ihre besten Songs in 3D neu ab – jeder Ihrer Hörer, der einen halbwegs guten Kopfhörer hat, wird Ihre Musik ganz neu entdecken. Wer weiterhin auf echte Surroundmonitore nicht verzichten will, kann über das Channel-Out-Modul mit der Producer-Version bis zu 8 davon anschließen (unlimitiert mit der Producer-Plus-Version).

Der Spatial Audio Designer kann in puncto Audioqualität und Echtheit der 3D-Raumakustik auch mit teurer Hardware mithalten. Mir ist keine andere Software bekannt, die das auch nur annähernd so gut und flexibel meistert. Zudem bietet er die Möglichkeit, das Surround- oder 3D-Kopfhörersignal als Stereosignal zu exportieren. Beim 3D-Sound schöpft man mit bis zu 22.2-Kanal-Sound (22 Monitore und zwei Subwoofer!) aus dem Vollen. Lediglich Headtracking bleibt systembedingt außen vor, ebenso wie individuelles Einmessungen einer selbst ausgesuchten Studioumgebung über die eigenen Ohren.

Durch die Mehrprozessorfähigkeit (die Berechnungen werden auf mehrere zur Verfügung stehende Prozessorkerne verteilt – und das auch unter Cubase, wo sonst jedes Plug-in immer nur einem Prozessor zugewiesen wird) wird es kaum zu Grenzbelastungen der CPU kommen. Somit sind auch Puffergrößen deutlich unterhalb von 256 Samples möglich; und SAD funktioniert falls erforderlich so auch im Echtzeitbetrieb, wenn man noch Instrumente einspielen will. Damit kann eine Produktion von Anfang an mit 3D-Kopfhörersound gefahren werden. Lediglich allzu wilde, schnelle und exzentrische Pannings können die CPU überfordern. Wer es gerne wild hat, sollte daher über On-Board-Panner des Sequencers arbeiten und eine finale Mehrkanalgruppe zum SAD-Mixer schicken (wie im Test beschrieben). Die Software funktionierte während unseres Tests einwandfrei, die Bedienung ist schnell erlernt. Für’s Kennenlernen gibt es eine Demo-Version auf der Homepage des Herstellers.

Plus

  • Überzeugender Surround- und 3D-Sound
  • Vielzahl von virtuellen Studioumgebungen bis zu 22.2
  • 3D-Kopfhörerabmischungen als Stereodatei exportierbar
  • 3D-Audioqualität auf einer Höhe mit teurer Hardware
  • Geeignet auch für konventionelle Zweikanalabmischungen unter dem Kopfhörer
  • Schlüssige, gut dokumentierte Bedienung (Englisch)
  • Äußerst fairer Preis

Andreas Ecker

Preis (Stand: September 2013)

  • 289 Euro (Registrierung von 2 Systemen oder 1 USB Stick, 8 physikalische Ausgänge)

Ergänzende Links