Test: Dear Reality dearVR music
|dearVR music ist ein Plug-in für binauralen 3D-Sound über Kopfhörer und Vierkanal-Ambisonic für YouTube. Was den zweikanaligen Binaural-Sound betrifft, ist dearVR music nicht das erste Tool seiner Art, aber das erste, das bei Plugin Alliance zu haben ist. Und da man dort auf eine überdurchschnittliche Qualität und zukunftsweisende Entwicklungen Wert legt, haben wir uns dearVR music genauer angesehen – und einige überraschende Entdeckungen gemacht.
dearVR music soll es möglich machen, Signalquellen in einem dreidimensionalen Raum zu platzieren und zu bewegen. Dabei ist dearVR music mehr als ein binauraler 3D Panner. Das Plug-in beinhaltet auch die Erzeugung von Reflexionen und Nachhall. 18 Räume stehen zur Wahl.
Abseits der 3D-Sounds sind mit dearVR music auch konventionelle 2D-Stereoabmischungen unter Verwendung der inbegriffenen Räume möglich.
Wer direkt in den Test einsteigen will, scrollt bitte nach unten zu „dearVR music – die Besonderheiten“
In der zweiten Hälfte des Tests finden Sie ein Tutorial, das zeigt, wie man dearVR music mit wenigen Handgriffen einsetzt, um über Kopfhörer abzumischen. Diese Anwendung steht nämlich eigentlich nicht im Fokus unseres Testkandidaten. Anschließend geht es mit dem Umwandeln von Surroundabmischungen und Surroundeffekten unter Verwendung von dearVR music weiter.
3D Sound über Kopfhörer: Vorbemerkung und Rückblick
Erste 3D-Aufnahmen für Kopfhörer entstanden mit einem Kunstkopf, einer Nachbildung eines Kopfes, bei dem Mikrofone in den Ohren platziert wurden. Da man damit keine differenzierten Abnahmen aller Instrumente, sondern nur den Gesamtsound aufnehmen konnte, beschränkten sich die Veröffentlichungen auf wenige Werke, etwa von Lou Reed und Jane.
Die Umwandlung von Stereosignalen in binauralen Zweikanalton war aber noch aus einem ganz anderen Grund interessant: Über Kopfhörer abzumischen war lange Zeit kaum möglich. Da die Schallwellen dabei nicht durch den Körper, besonders die Kopfform und die Ohrmuschel abgelenkt werden, sondern mehr oder weniger direkt auf das Trommelfell treffen, entsteht eine Im-Kopf-Lokalisation des Klanges, die ein Abmischen mit professionellen Ansprüchen unmöglich macht.
Das haben Soft- und Hardwareentwickler schon vor Jahren erkannt und Lösungen geschaffen, die eine Ablenkung des Schalls simulieren, also das Audiosignal so umrechnen, dass es über einen Kopfhörer danach so klingt, als käme es aus einer bestimmten Richtung und würde über Körper, Kopfform und Ohrmuschel abgelenkt, bevor es das Trommelfell erreicht.
Einfachere Plug-ins simulieren die klassischen Surroundpositionen vorne und hinten, links und rechts sowie der Center-Speaker. Fortgeschrittene Anwendungen bieten eine freie 360-Grad Positionierung rund um den Hörer auf horizontaler Ebene und in Kopfhöhe; darüber hinaus werden auch Höhenpositionen abgebildet. Nun kann man den Hubschrauber aus dem virtuell-analogen Synthie über dem Kopf kreisen lassen und düster grollende Sounds in einen simulierten Graben vor dem Hörer verbannen.
Während manche Hersteller mit vergleichsweise einfachen Filter-Kombinationen operieren und minimale Delays verwenden, die Laufzeitunterschiede für Teilspektren nachbilden, betreiben andere eine aufwändige Forschung zur Entwicklung ihrer HRTF (Head Related Transfer Function), teils in Zusammenarbeit mit Universitäten. Als Spitzenprodukte galten bislang die Hardware Smyth Research Realiser, den es bald auch in einer 16-Kanal-Version geben soll, und der rein softwarebasierte Spatial Audio Designer von New Audio Technologie.
Daneben bietet IRCAM Tools / Flux mit HEar V3 ein sehr kostengünstiges, kleines Plug-in an, das ebenfalls zufriedenstellende Resultate erzielt. Toneboosters Isone war eine noch deutlich billigere Lösung auf Taschengeldniveau; ich konnte das Plug-in aber auf der Herstellerseite nicht mehr finden. Waves versucht mit dem relativ einfach zu bedienenden und mit einem Head Tracker kombinierbaren Plug-in namens Nx den Markt zu erobern.
Bei Verwendung eines Head Trackers wird die Kopfbewegung in die Simulation eingerechnet. Die Kopfposition wird (beim Realiser) durch einen Sender auf dem Kopfhörerbügel zu einem Empfänger, meist auf dem Center-Speaker, übertragen. Dreht man den Kopf nach links, so bleibt eine frontale Schallquelle dann immer noch da, wo sie ist, und dreht sich nicht mit, sondern zielt nun auf das rechte Ohr. Das Head Tracking, welches auch mit dem Realiser A8 möglich ist, trägt zwar deutlich zum Echtheitsgefühl der 3D-Simulation bei, ist aber für das Abmischen kein Zugewinn. Im Gegenteil: Es behindert eher, da es Schwächen des 3D-Klanges durch den Bewegungseffekt überdeckt.
Das A und O beim überzeugenden Raumklang über Kopfhörer ist die HRTF. Der Smyth Research Realiser A8 wird mit Messmikrofonen geliefert, die es erlauben, die persönliche Studioakustik samt Monitoren über die eigenen Ohren einzumessen und so eine personalisierte HRTF zu errechnen. (Man kann sich damit natürlich auch in einem Studio einmieten und das virtuelle Abbild mit nachhause nehmen.) Dazu werden Messmikrofone in die Ohren gesteckt und ein Impuls/Sweep der Reihe nach über alle Lautsprecher geschickt. Wir haben das in unserem Test zum Realiser A8 ausführlich beleuchtet.
Alle anderen Lösungen verwenden standardisierte HRTFs. Wie genau diese generiert werden, ist in der Regel ein streng gehütetes Geheimnis.
Der Smyth Research Realiser A16 und der Spatial Audio Designer erlauben auch das Simulieren von Lautsprecherkonfigurationen jenseits von 7.1 Surround bis hin zu Klanginstallationen mit Lautsprechern, die entlang der Y-Achse positioniert sind, also oberhalb oder unterhalb des Hörers.
Genau das kann auch unser Testkandidat dearVR music.
dearVR music – die Besonderheiten
Das Wichtigste zuerst: dearVR music errechnet eine punktförmige Schallquelle, die im 360-Grad-Winkel um den Hörer herum mit variabler Entfernung und variabler Höhe positioniert wird und animiert werden kann.
- Das Plug-in fasst ein Stereosignal quasi zu einer Mono-Signalquelle zusammen, der man dann eine bestimmte Position im Raum zuweist bzw. die man per Automation durch den Raum bewegt. Will man ein Stereo-Signal mit voller Breite im Raum positionieren, so muss man einen kleinen Umweg gehen, den ich am Ende des Tests beschrieben habe.
- Der Parameter Höhe wird von Mitbewerbern, die sich auf eine klassische 5.1 oder 7.1 Surround-Anordnung beschränken, nicht abgebildet.
- Die Positionierung der Schallquelle in einer bestimmten Entfernung zum Hörer funktioniert sowohl ohne als auch mit den inbegriffenen Räumen. Ein trockenes Signal so im 3D Raum zu platzieren, dass man es überall einwandfrei orten kann, ist bei den mir bekannten anderen Plug-ins nur teilweise oder gar nicht geglückt. dearVR music schafft das in ausgezeichneter Qualität. Schaltet man Echos und Hall hinzu, wirkt der Klang noch echter.
Es stehen 18 verschiedene Räume zur Verfügung, darunter die am meisten gefragten Standards wie Konzerthalle, Kirche, Bühne, sowie spezielle Aufnahmeräume für Drums und diverse Platten-Reverbs für spezifische Anwendungen wie etwa Vocals.
Positionierung der Schallquelle im Raum
Die Schallquelle positioniert man im Position-Modul. Man schaltet zwischen den Ansichten XZ, XY und ZY um.
Im Cartesian-Modus bewegt man die Schallquelle
- in der X/Z-Ansicht um den Hörer horizontal herum (links/rechts – vorne/hinten),
- in der X/Y-Ansicht um den Hörer vertikal und seitlich herum (links/rechts – oben/unten) und
- in der Y/Z-Ansicht um den Hörer vertikal und frontal herum (vorne/hinten – oben/unten).
Dabei wird zugleich auch die Entfernung zum Hörer eingestellt.
Die X/Z-Ansicht:
Hier die YZ-Ansicht mit der Schallquelle vorne und oberhalb des Hörers:
Anhand der Grafik des Kopfes erkennt man sofort, in welcher zweidimensionalen Ebene man gerade operiert. Die Slider Azimuth (Kreisbewegung um den Hörer herum), Elevation (Höhe) und Distance (Entfernung) bewegen sich synchron zum Verschieben der punktförmigen Schallquelle mit der Maus.
Die numerischen Positionswerte X, Y und Z werden ebenfalls angezeigt. Über das Lupensymbol (unten rechts mit Plus/Minus-Taster) kann man die Raumansicht vergrößern oder verkleinern. Sollte der Punkt der Schallquelle nicht sichtbar sein, hat man eine zu kleine Raumansicht gewählt, und die Schallquelle befindet sich außerhalb des sichtbaren Bereichs. Dieser lässt sich stufenweise von 3m über 6, 12, 18, 24 bis zu 30m erweitern. Per ALT-Klick ins Display setzt man alle Werte in eine neutrale Ausgangsposition zurück. Die Schallquelle befindet sich dann in 3m Entfernung zentral vor dem Hörer. Die Größenwahrnehmung des Raumes hängt allerdings nicht nur vom Parameter Distance, sondern auch von den Einstellungen der Echos und der Hallfahne ab – dazu kommen wir später.
Während im Cartesian-Modus die Schallquelle mit der Maus positioniert wird und die Fader Azimuth, Elevation und Distance nicht bewegt werden können, vollzieht sich das im Polar-Modus genau anders herum: Hier stellt man die Position ausschließlich über die Fader ein.
Wahl der Umgebung
Im Modul „Virtual Acoustics“ wählt man die Umgebung, deren Größe, schaltet die Frühen Reflexionen sowie den Nachhall an oder aus und bestimmt die Lautstärke der Pegel. Über Damping können dumpf klingende Räume erzeugt werden, indem ein Low-Pass-Filter die Höhen zwischen 500 Hz und 20 kHz unterdrückt.
Soweit ich das dem Manual entnehmen konnte, bedeuten Größenänderungen keine Neuberechnung einer Raumform, sondern bewirken lediglich einen längeren Nachhall. Zur Dämpfung fand ich keine weiteren Ausführungen.
Es macht einen Unterschied, ob
- a) Reflexionen in einer Feedbackschleife wiederholt gedämpft werden und der Höhenanteil mit fortschreitender Zeit sukzessive zurückgeht, oder ob
- b) einfach am Ausgang des Reflexions- bzw. Hallmoduls ein Lowpass-Filter greift.
Mit Lösung a kann man natürliche Wandeigenschaften besser simulieren, da deren Höhendämpfung mit jeder weiteren Reflexion ebenfalls zunimmt.
Wir haben beim Hersteller nachgefragt: dearVR music benutzt eine Mischung aus algorithmischem und Faltungs-Hall.
Die Auswahl an Räumen:
An der Klangqualität der mitgelieferten Räume ist grundsätzlich nichts auszusetzen. Dennoch werden die gestalterischen Möglichkeiten von darauf spezialisierten Plug-ins nicht erreicht. Wir werden am Ende des Tests aber noch sehen, dass man externe Reverbs mit dearVR music kombinieren kann.
dearVR music in der Praxis
Zunächst sollte man vorgeben, wohin die Reise geht. Will man einen 3D-Mix für Kopfhörer erstellen, so klickt man auf Binaural (zweikanalig). Soll es ein Ambisonic-Sound(track) für YouTube werden, dann wählt man das vierkanalige FOA YouTube-Format unter Ambisonics. (Die Pro Version des Plug-ins bietet übrigens noch deutlich mehr Räume und auch andere Ambisonics-Formate.)
Klickt man auf 2.0 Speaker, so wählt man eine zweikanalige Wiedergabe für herkömmliches Stereo. In dieser Betriebsart arbeitet man ausschließlich mit dem Reverb und den Echos. Die 3D-Positionierung bleibt dann außen vor. Über Stereo-Lautsprecher kann sie sowieso nicht abgebildet werden. Hört man binaurale Signale über Monitore ab, so klingt der Mix verfärbt und verwaschen.
In unserem Test geht es mit Binaural zweikanalig weiter.
Die Schalter Bassboost (Bassanhebung) und Bypass erklären sich von selbst. Der Performance Mode empfiehlt sich für statische Klangquellen, also solche, die man nicht im 3D-Raum animiert. (Eine Kleinigkeit nebenbei: Während dieser Schalter in der Abbildung im Manual eindeutig mit „Save Performance“ gekennzeichnet ist, heißt er im GUI lediglich „Performance Mode“, sodass man meinen könnte, man solle ihn aktivieren, wenn man die Schallquelle animiert. Es verhält sich aber genau umgekehrt: Man sollte ihn einschalten, wenn die Signalquelle statisch ist. Der Hersteller schreibt dazu: „Performance Mode ist die von uns gewählte Bezeichnung, weil dadurch Rechenleistung (Performance) gespart wird. Es ist also nicht eine Beweugungs-Performance der Audioquelle gemeint.“)
Liegt ein Stereo-Signal an, so kann man den linken oder rechten Kanal wählen bzw. einen Mix dazwischen. Das Stereosignal wird zu einem Mono-Signal zusammengefasst (um eine punktförmige Schallquelle zu bilden).
Bei der Musikproduktion gibt es zahlreiche Klangquellen, die Bewegungen im Stereopanorama ausreizen, seien es Synthesizer-Sequenzen oder mit entsprechenden Effekten bearbeitete Sounds. Will man diese mit dearVR music in stereo abbilden, so muss man den linken und rechten Kanal über zwei verschiedene Instanzen von dearVR music berechnen lassen und dafür das Signal trennen. Mehr dazu am Ende des Tests.
Kommentar von Dear Reality: „Genau. Einfach den Stereotrack duplizieren und einmal mit dem Inputslider den linken Kanal auswählen und in dem zweiten Track den Inputslider auf Rechts stellen.“
dearVR music ist weniger dazu prädestiniert, ein fertiges Zweikanal-Masterprojekt zu binauralisieren – obwohl das auch möglich ist: Dann hört man, den Stereotrack wie aus zwei Lautsprechern (ohne Lautsprecherverfärbung) in einem virtuellen Raum aus einer gewählten Position. Das gleiche gilt für Surroundtracks und entspricht dann in etwa der oben erläuterten Anwendung von Tools wie Smyth Research Realizer.
Die Stärken von dearVR music liegen darin, aus einer Multitrack Session eine neue, spezielle 3D Audiomischung für Kopfhörer (oder Youtube) zu erstellen.
Anwendungsbeispiele
Hier hören Sie einen einfachen Beat. Es trommelt Superior Drummer 3 von Toontrack. Verwendet habe ich ausschließlich die Direktmikrofone von Snare, Bassdrum und Hi-Hat über separate Ausgänge. In dearVR music habe ich den Drum Room 1 für alle drei Instrumente eingestellt. Die Snare nähert sich langsam dem Hörer und entfernt sich dann wieder.
Bitte nicht vergessen, einen Kopfhörer aufzusetzen.
Die realistische Wahrnehmung der Entfernung funktioniert gut. Hier arbeiten der Raumsimulator und die Positionierung hervorragend zusammen. Schaltet man den Reverb aus, so würde in unserem Beispiel die Snare mit zunehmender Entfernung einfach leiser.
Nun umkreist die Hi-Hat den Hörer:
Auch die kritischen rückwärtigen Positionen werden gut abgebildet. Vor allem in der zentralen Hinter-Kopf-Position schwächeln einige Mitbewerber, nicht so unser Testkandidat.
Nun lassen wir die Bassdrum in den Keller und ein wenig vom Hörer weg und wieder zurück wandern:
Auch das gelingt erstaunlich gut, wenngleich der Effekt nicht so deutlich wird, wie die Kreisbewegung um den Kopf herum. Dazu muss man sich vergegenwärtigen, dass in der Natur Situationen mit Signalquellen, die sich weit unterhalb der eigenen Position befinden, selten vorkommen. Daher ist unser Gehör für diese negativen Höhenwerte auch nicht so sensibilisiert wie etwa für Über-Kopf-Positionen, die deutlicher wahrgenommen werden.
Ein Tipp am Rande: Grundsätzlich gewinnt Musik in 3D an Echtheit, wenn man schlicht die Augen schließt. Visuelle Informationen, die nichts mit der Musik und deren Bewegungen im Raum zu tun haben, lenken die Konzentration ab. Mit geschlossenen Augen kann man die Signalquellen besser verfolgen und hört dann auch Unterschiede in der Höhenposition besser heraus.
Wir machen weiter: Synthesizer-Effekte (Loops aus Ueberschall Astral Electro Flux) schwirren durch den Raum, um den Hörer herum, vor- und zurück, nach links und rechts, sowie nach oben und unten.
Es ist erstaunlich, dass dieses 3D-Klangchaos immer noch sauber abgebildet wird und man die Positionen aller Klangquellen orten kann, wenn man genau hinhört.
Zum nächsten Audiodemo: Eine Geräuschkulisse aus Soniccouture Geosonics bewegt sich von links-hinten-unten nach rechts-hinten-unten, dann dicht am Hörer vorbei nach rechts-seitlich-oben. Das dezente Rauschen ist Bestandteil des Samples und wird nicht von dearVR music generiert.
Dabei fällt auf, dass Positionen unterhalb des Hörers deutlich dumpfer gezeichnet werden als solche auf Ohrenhöhe und darüber. Das scheint auch der natürlichen Wahrnehmung zu entsprechen, denn die räumliche Lokalisation gelingt ausgezeichnet, selbst die schwierigen Positionen zentral hinter dem Kopf sowie oben und unten.
Hier habe ich einen Loop aus Ueberschall Art of Sounds hinzugemischt und unregelmäßig wie die Flugbahn einer Stubenfliege animiert:
Eine herkömmliche Stereo-Wiedergabe dieser kleinen „Komposition“ wäre einfach uninteressant. Erst durch die Bewegungen im 3D-Raum entsteht erst eine gewisse Klangmagie und ein Hinhör-Effekt.
Wenn man von vorneherein dearVR music in die Komposition integriert, ergeben sich ganz neue Möglichkeiten, mit Klängen im Raum zu experimentieren.
Für das folgende Audiodemo habe ich zwei Texturen aus Spectrasonics Omnisphere 2 verwendet, eine monotone rhythmische Sequenz aus Electra 2 von Tone2 sowie einen anschwellenden Sound aus NI Rise & Hit.
Ohne dearVR music, also im traditionellen Stereo-Zweikanalton, hört sich das Ganze so an:
Die erste Omnisphere-Textur soll sich klassisch auf Kopfhöhe und vorne abspielen, die zweite, hellere, über dem Kopf und vorne, der rhythmische Loop hinter dem Hörer und der Whoosh soll schließlich von vorne nach hinten verlaufen.
Zunächst habe ich alle Tracks als Audiofiles gerendert und jeweils eine Kopie erstellt.
Nun setze ich die dearVR-Instanzen mit den Default-Einstellungen für den Hall ein.
Bei Original und Kopie schiebe ich den Input-Channel-Slider auf die entgegengesetzten Extrempositionen.
Zunächst der Whoosh alleine:
Die Einstellungen für die erste Omnisphere-Textur …
… und für die zweite:
Die beiden dearVR music – Instanzen für Electra 2:
Das Ergebnis:
Das Experiment hat funktioniert, und die Im-Kopf-Lokalisation ist verschwunden. Dass der Klang nun sehr räumlich und insgesamt etwas verhalten wirkt, liegt daran, dass ich höhere Distance-Werte verwendet habe. Wenn ich bei allen statischen Schallquellen die Entfernung zum Hörer reduziere, wird der Klang direkter:
Nun kann man weiter an den Tracks arbeiten, etwa zusätzliche Effekte einbauen.
Hier habe ich die Textur aus Omnisphere mit der ShaperBox von Cableguys rhythmisiert und dem zweiten Omnisphere-Sound einen Granulareffekt aus dem uhbik-Bundle hinzugefügt. Dabei kann man durchaus auch mit unterschiedlichen Einstellungen für die Instanzen im Originalkanal und der Kopie experimentieren. Dem Electra 2 – Sound habe ich mit Effectrix von Sugar Bytes und Evolution von INA/GRM Tools zugesetzt und die beiden Kanäle animiert, um mehr Leben und die Klangfahrt zu bekommen. Eventide Elevate habe ich als Mastering-Tool eingesetzt, um Transienten hervorzuheben und dem Klang etwas mehr Kraft zu verleihen. Obwohl Elevate hinter dearVR music zum Einsatz kommt, wird die räumliche Ortung kaum beeinträchtigt.
Man kann mit dearVR music auch gleich eine ganze Band am Hörer vorbeiziehen lassen. Hier das Original in 2D (Chris Hein Horns: Trompete und Tuba, Percussion von FXpansion BFD 3, Big Orchestral Marching Band) – frei nach dem Motto „Karneval das ganze Jahr!“:
In 3D:
dearVR music und das Abmischen unter dem Kopfhörer
Über einen Umweg, nämlich das Duplizieren der Stereo-Kanäle oder ein Routing über zwei Gruppen, lässt sich dearVR music auch für die Bearbeitung eines Stereo-Mixes unter dem Kopfhörer verwenden. Aufgrund der überragenden 3D-Qualität ist die damit verbundene (kleine) Arbeit durchaus der Mühe wert.
Im Folgenden beschriebe ich die Vorgehensweise unter Cubase 9 Pro. Die Arbeitsschritte lassen sich auch auf andere Host-Sequencer übertragen, und da lediglich Grundfunktionen bemüht werden, funktioniert es auch mit den kleineren Cubase-Versionen.
Liegt bereits ein für den finalen Mix fertig aufbereitetes Projekt vor, muss man zunächst zwei Stereo-Gruppen anlegen und alle Kanäle, die zum Masterkanal geroutet sind, pre Fader (!) zu diesen routen. Falls es bei Ihrem Sequencer mit Gruppen nicht funktioniert, verwenden Sie statt dessen Effektkanäle.
Es müssen Stereo-Gruppen, keine Mono-Gruppen oder Mono-Effektkanäle sein, denn schließlich generiert deraVR music ein binaurales Zweikanal-Signal.
Zur Demonstration habe ich ein Mini-Projekt mit einem Loop aus Ueberschall Pop Ballads angelegt. Im Audiokanal route ich nun den Loop auf die beiden zuvor angelegten Gruppen dear 1 und dear 2 …
… und stelle den Output der Sends auf Pre-Fader über den seitlich liegenden Regenschirm (eine erfolgreiche Pre-Fader-Umstellung erkennt man bei Cubase am grünen Balken; Post-Fader ist blau).
Pre-Fader deshalb, damit ich den Kanal selbst mit dem Originalsignal herunterregeln kann. Die Panorama-Regler können auf Stereo bzw. mittig bleiben, denn die Auswahl des Input-Channels stelle ich in den dearVR music – Instanzen ein.
Panoramaregler in neutraler Position, Kanal-Fader heruntergezogen:
Nun lade ich dearVR music zunächst in Gruppe 1 („dear 1“) und wähle den passenden Raum, die Raumgröße und Dämpfung. Performance Mode schalte ich ein, da keine Automation erfolgen soll und so Rechenleistung eingespart wird.
Den Input Channel – Slider schiebe ich ganz nach links. Dann stelle ich die Position der Klangquelle in der XY-Ebene ein. Mit dem Entfernungs-Regler (Distance) bestimme ich, wie viel Raumanteil enthalten sein soll. Wenn es nur um die Abmischung unter Kopfhörer und nicht um das Erstellen eines binauralen Mixes geht, sollte der Raumanteil möglichst niedrig sein. Ziel ist es, lediglich die Im-Kopf-Lokalisation zu vermeiden, nicht einen effektvollen Raumklang zu generieren.
Also zoome ich mit dem Lupensymbol auf die 3 m – Darstellung und positioniere den Punkt dort, wo ich im Studio meinen linken Monitor stehen habe. Nach einem Doppelklick auf die Wertefelder gebe ich -1,20 m für X und 1,00 m für Z ein.
Anschließend kopiere ich das Plug-in auf den Kanal „dear 2“, also die zweite Gruppe, die ich angelegt habe. In Cubase 9 Pro geht das per Klicken und Ziehen im Mixer und bei gehaltener Alt-Taste (alternativ über Preset speichern, neue Instanz im Kanal dear 2 laden, Preset laden).
Im kopierten Plug-in muss ich nun nur noch den Channel Input – Slider nach rechts schieben und für X 1,20 eingeben.
Und das war´s schon. So hört es sich dann binaural über Kopfhörer an …
… und so ohne dearVR music:
Ohne dearVR music ist das Signal zwar lauter, doch alle Instrumente sitzen zwischen den Ohren. Mit dearVR music hat man in etwa den Sound wie über die Monitore.
Noch besser wird das Ergebnis, wenn man Bass Boost einschaltet:
Nun kann man bei Bedarf noch mit anderen Räumen, Dämpfungen, Entfernungen, unterschiedlichen Lautstärken für die Frühen Reflexionen und die Hallfahne experimentieren und anschließend die alternativen Einstellungen als Preset abspeichern.
Auf welch hohem Niveau man mit dearVR music operiert, und dass sich die Mühe tatsächlich gelohnt hat, zeigt sich, wenn man den Effekt mit Waves Nx vergleicht. Das binaurale Signal von Nx klingt deutlich matter, weniger offen und auch ein wenig verfärbt. Diese Behauptung möchte ich nicht einfach so im Raum stehen lassen, sondern auch belegen:
Auch Surround-Abmischungen können im Nachhinein über dearVR music für einen binauralen Mix umgearbeitet werden. Per Doppelklick auf die Send-Wege eines Surroundkanals im Reiter Panorama lassen sich einzelne Kanäle weiterleiten, also beispielsweise nur der rechte hintere Monitor. In dieser Abbildung sind es die drei Front-Kanäle, dei weitergeleitet werden.
Hier eine einfache Surround-Komposition: Mongolische Obertongesänge aus Ethno World 6 plus Wind in einer Graslandschaft aus Soniccouture Geosonics. Als Surround-Effekte habe ich GRM Tools Spaces und SpaceGrain eingesetzt. Zunächst mit Waves Nx mit der 5.1 to 2.0 – Komponente:
Nun das Ganze über dearVR music-Instanzen. Das Windgeräusch aus Geosonics habe ich dupliziert und die Kopie animiert, um unregelmäßige Windgeräusche zu erzielen. Im Masterkanal habe ich bx_subsynth mit dem Preset Vox Male Saturated und Eventide / Newflangled Audio Elevate eingesetzt.
Hier habe ich die verschiedenen Instrumente eines Schlagzeugs und die Overheads auf unterschiedliche Surround-Monitore gelegt. Der Hörer sitzt sozusagen umgeben von den Trommeln. Als Raum habe ich Heavy Ambience gewählt:
Nun kommt GRM Tools Spaces zum Einsatz, um die Schlaginstrumente langsam im Kreis zu bewegen. Da sie unterschiedlichen Surroundpositionen zugewiesen sind, fahren sie der Reihe nach die Monitore ab. Ergänzend liefert GRM Tools SpaceGrain dezente Ghost Notes, die auffällig im Raum verteilt sind.
Mit oder ohne Raum
Im folgenden Audiodemo hören Sie zwei Gitarrenloops aus Ueberschall Shread Guitar. Als Amp/Speaker habe ich den ENGL E765 RT von Brainworx verwendet. In dearVR music habe ich Hall und Reflexionen ausgeschaltet. Die Gitarre wandert zunächst um den Hörer herum, um dann frontal vor ihm in geringer Entfernung in die Höhe zu schweben:
Auch ohne Raumreflexionen gelingt die Ortung sehr gut. Der Aufstieg in die Höhe wird dabei nicht ganz so deutlich wahrgenommen wie die horizontale Kreisbewegung auf Ohrhöhe.
So klingt es, wenn die Frühen Reflexionen eingeschaltet sind (Preset Live Stage):
Und so mit Hallfahne:
Durch die Rauminformationen gelingt die Ortung des Signals noch etwas besser, und auch die Höhenposition profitiert davon.
Was passiert aber, wenn man einen anderen Hall hinzunehmen möchte?
Lösung A: Man platziert den Hall in der Insert-Kette hinter dearVR music. (Würde man ihn davor platzieren, so würde die Rauminformation ebenfalls als punktförmige Schallquelle mitwandern). Außerdem schaltet man den Raumsimulator in dearVR music ab.
Hier habe ich als Raum den Paradiso Club in Amsterdam verwendet (Faltungshall-Preset aus Audio Ease Altiverb):
Das Ganze funktioniert erstaunlich gut, solange man bei der Automation in etwa den gleichen Abstand zwischen Schallquelle und Hörer beibehält. Will man mit verschiedenen Entfernungen arbeiten, muss man synchron den Mix-Anteil des nachgeschalteten Reverbs anpassen. Solange die Bewegungen nicht allzu wild sind, sollte das möglich sein.
Lösung B ist aufwändiger, hat aber den Vorteil, dass auch wechselnde Entfernungen im Raumsimulator abgebildet werden. Man schickt die Klangquelle in einen Surroundhall und routet dessen Ausgänge zu fünf Kanälen mit dearVR music Instanzen, wie wir es bereits zuvor mit Surroundabmischungen getan haben.
Will man bei dieser Vorgehensweise die Schallquelle animieren, so erfolgt das über die Surroundpanner der Instrumentenkanäle. Die dearVR music – Instanzen repräsentieren in diesem Fall die fünf Monitor-Positionen (bei 5.0 Surround) und werden nicht animiert.
So würde beispielsweise die dearVR music Instanz für die rechte Monitorposition aussehen:
Performance Mode ist eingeschaltet (zwecks Ressourcenschonung), Echos und Hall sind ausgeschaltet, der Input-Channel-Slider steht in der Mitte.
Das Signal des Surrounskanals mit dem Surroundhall wird über die Send-Wege zu den einzelnen Stereo-Kanälen mit dearVR music-Instanzen geschickt, die unsere Monitore repräsentieren.
Für unser Beispiel verwende ich nur ein Instrument, nämlich die Gitarre. Diese schicke ich zum Surroundkanal.
Gitarre → Surroundkanal mit Hall → 5 dearVR music-Stereokanäle für die 5 virtuellen Surroundmonitore → alle zum Stereo Out ohne weitere dear VR music-Instanz aber mit der Option einer finalen Klangbearbeitung.
Die Gitarre habe ich mit dem Cubase-Surroundpanner ziemlich hektisch animiert (mal was anderes als Kreisbahnen). Das Ganze hört sich nun so an:
Wie gesagt: Das Schöne an Lösung B ist, dass man nun den Mix-Regler nicht mehr bemühen muss, um wechselnde Entfernungen zu simulieren. Das erledigt in diesem Fall Altiverb 7 Surround intern. Wir wechseln zur Oper in Sydney:
Anstelle des Surroundhalls kann man natürlich auch andere Surround-Effekte laden, etwa GRM Tools SpaceGrain und SpaceFilter. Dazu habe ich Toontracks EZdrummer eingebaut. Da dieser nicht über die selben Effekte wie die Gitarre laufen soll, braucht er allerdings zwei weitere Kanäle mit dearVR music – Instanzen. Der Drummer läuft anders als die Gitarre über dearVR music Raumsimulatoren.
Warum ist dieser Test wieder so lange geworden? DearVR music ist einfach extrem gut. Wenn man sich eingehender damit beschäftigt, merkt man mehr und mehr, was alles möglich ist.
Fazit
Surround war gestern – Virtual Reality ist angesagt. DearVR music bedient genau diese Zielgruppe. Spiele- und Filmvertoner mit VR-Ambitionen werden ihre wahre Freude an dearVR music haben, auch experimentelle Binaural-Komponisten, die am besten gleich mit dearVR music im Projekt starten.
dearVR music von Dear Reality liefert einen hervorragenden 3D-Klang für binaurale Kompositionen und Ambisonic (YouTube-Format). Während manche Mitbewerber sich auf fixe Monitorpositionen in 5.1 oder 7.1 Surround beschränken, sind mit dearVR music 360-Grad-Bewegungen entlang aller Raumausdehnungen möglich, also horizontal um den zentralen Hörer herum, vertikal seitlich und vertikal frontal/rückwärts. Hinzu kommt der Parameter Entfernung.
Die Lokalisierung der Schallquellen im dreidimensionalen Raum gelingt hervorragend – besser als mit allen anderen mir bekannten Plug-ins und auch besser als mit dem Smyth Research Realiser A8. Verblüffender Weise funktioniert die Ortung auch ohne jegliche Rauminformationen. Kein anderes mir bekanntes Immersive Audio – Plug-in leistet das ohne Abstriche bei der Qualität der Signalortung.
Ungeachtet dessen liefert der integrierte Raumsimulator 18 gut klingende Räume für alle gängigen Anwendungen und verbessert die 3D-Wahrnehmung zusätzlich. Vor allem die Ortung von Höhenpositionen gelingt mit eingeschaltetem Raumsimulator besser.
Wer seinen externen Lieblingshall verwenden möchte, kann das erfreulicherweise auch tun – bei statischen Positionen der Signalquelle ohne großen Aufwand, bei Animationen quer durch den Raum und mit variierenden Entfernungen sind allerdings manuelle Anpassungen notwendig.
Bevor man alle anderen binauralen Plug-ins in der Versenkung verschwinden lässt, sollte man beachten: dearVR music beschreitet einen anderen Weg als beispielsweise Flux oder Waves. Eine Stereo-, Quadro- oder Surround-Komponente, die man einfach so in eine Spur laden kann, um einen Zwei- oder Mehrkanalsound in ein binaurales Kopfhörersignal umzuwandeln, wird nicht geboten. Wenn der Hersteller schreibt: „Mix any standard multitrack session as an immersive 3D soundscape with binaural output for headphones“, so muss man diese Aussage etwas relativieren. Je nachdem, wie das Projekt aufgestellt ist, ist die Umsetzung nicht ganz so einfach.
Der Hersteller schreibt uns dazu: „Wie gesagt muss man nur für jede Spur eine eigene Instanz verwenden. Dann kann man problemlos (zugegeben mit mehr notwendigen Clicks für die Editierung) Mehrkanaltracks in seine Mischung integrieren. Für Stereoquellen ist es tatsächlich kein großer Mehraufwand – außer dass die Trackanzahl sich erhöht.“
Das entspricht auch unserer Einschätzung.
Denn dearVR music positioniert das eingehende Audiosignal als (quasi monofone) punktförmige Schallquelle im Raum. Will man einfach nur einen Stereo- oder Surround-Mix über Kopfhörer bearbeiten, muss man die in er zweiten Hälfte des Tests beschriebenen Wege einschlagen. Bei Stereo geht das recht zügig, bei fertigen Surroundprojekten ist es deutlich aufwändiger.
Dear Reality schreibt dazu weiter: „Ein schneller Workflow für Multichanneltracks oder -inputs ist definitiv auf unserer Roadmap für dearVR.“
Der Preis ist nicht niedrig aber absolut angemessen.
Testautor: Holger Obst
Plus:
- ideales Plug-in für Virtual Reality – Anwendungen
- Export von Vierkanal-Ambisonic
- sehr gute Lokalisation einer punktförmigen Schallquelle in einem 3D-Raum auch bei ausgeschalteten Echos & Hall
- Überzeugende Abbildung von Höhenpositionen (Y-Achse) und Entfernungen vom Hörer
- reibungslose Animation quer durch den Raum einschließlich variierender Entfernungen ohne Audioaussetzer
- Auswahl an Räumen
- vergleichsweise genügsamer Anspruch an die CPU
Minus:
- keine einfach zu verwendende Surround-to-Binaural oder Stereo-to-Binaural – Komponente
Preis: 199.- US Dollar zzgl 19% USt. für Käufer aus Euroland.
Hersteller: Dear Reality
Vertrieb: Plugin Alliance