In der kalten Schachtel

Dieser Artikel beschreibt chronologisch die Entstehung eines Songs – mit Audiodemos der Entwicklungsstufen und Screenshots der verwendeten Plug-ins. Vorangestellt ist ein kleiner Diskurs zum Thema Computer-Komposition im Jahre 2015.

ksbd0

Wer direkt mit dem Songaufbau einsteigen will, scrollt einfach zu „Es geht los“ weiter. Zum Vergrößern der Screenshots diese bitte einfach anklicken. Außerdem habe ich zahlreiche Links zu Testberichten auf Releasetime eingebaut – für diejenigen, die Bedarf nach mehr Hintergrundwissen haben. Die Testberichte auf Releasetime sind sehr ausführlich, zudem mit Screenshots, vielen Audiodemos und Praxistipps ausgestattet.

 

Hinweis: Zum Vergrößern bitte auf die Grafiken klicken.

Prolog

Die allgemeine Situation eines Computer-Komponisten

Das heutige Überangebot an extrem leistungsfähigen Klangerzeugern sollte eigentlich eine Revolution der Musik nach sich ziehen, ein regelrechtes Kreativitäts-Feuerwerk. Virtuelle Synthesizer sind oft unerschöpfliche Klangbaukästen. Mit ihnen lassen sich vollkommen neue Instrumente gestalten. Effekte erlauben extreme Verfremdungen und überschreiten häufig die Grenze zwischen Klangbearbeitungstool und Instrument (Beispiele: 2CAudio Kaleidoscope, Native Instruments Molekular, GRM Tools Evolution Bundle).

Doch von einer Revolution der Musik ist in der Masse der Darbietungen nichts zu hören, ganz im Gegensatz zu den letzten Dekaden des vorangegangenen Jahrhunderts. Damals trugen technische Weiterentwicklungen zur Revolution der Pop-Musik bei, angefangen bei der Möglichkeit, Gitarren laut und damit hörbar zu machen, bis zu den ersten analogen und digitalen Synthesizern, Samplern (mit 2MB RAM in der höchsten Ausbaustufe), und Sequencern, bei denen man zu Beginn der MIDI-Computerära noch jede Note einzeln bearbeiten musste. Eine brauchbare Quantisierung oder gar Loops gab es damals noch nicht. Die aus heutiger Sicht beschränkten Möglichkeiten wurden als befreiend und inspirierend empfunden und halfen, neue musikalische Welten zu erschließen.

Heute ist stattdessen eine regelrechte Reizüberflutung eingetreten, nicht ohne Problematik für den künstlerischen Schaffensprozess: Anstatt aus einem Klangerzeuger alles herauszuholen, ertappe ich mich dabei, nach wenigen Minuten schon zur nächsten Alternative und deren Presets zu springen. Nach mehrfachen Sprüngen dieser Art kann es passieren, dass der ursprüngliche kreative Impuls schon stark nachgelassen hat und sich eine gewisse Verwirrtheit oder besser: Verirrung im Dschungel der unerschöpflichen Möglichkeiten einstellt.

Schlimmer sind diejenigen dran, die gar nicht mehr erst lernen mussten, eine Klaviatur zu bespielen: Eine Ein-Finger-Bedienung und das Bewegen einiger Fader oder Regler reicht aus, um groovige Sequenzen aus produktionsfertigen Loops zu erstellen. Viele Loops sind für sich genommen beeindruckend und verführerisch. Kein Wunder also, dass Loop-basierte Kompositionen einen Großteil des audiophilen Internets bevölkern. Aus dem Plattenaufleger von gestern ist mit dem Kreativ-DJ von heute eine neue Musikergattung entstanden. Für die meisten aber gilt: Auf Dauer reichen Loop-Arangements nicht, wenn man musikalisch weiterkommen will. Das Arbeiten mit fertigen Versatzstücken verbaut die Entwicklung des Gefühls für den einzelnen Ton.

Vielleicht sind die revolutionären Musiker von heute auch gar nicht unter den Loop-Usern zu suchen, sondern eher unter den Erfindern jener virtuellen Instrumente, die von der Wellenformgenese mit Zeichenstift über vielseitig modulierbare Filter bis zur ausgewachsenen Effektabteilung atemberaubende Klangwerkstätten bereitstellen – von modularen Konzepten wie Reaktor oder dem inzwischen nicht mehr fortgeführten Clavia Nord Modular ganz zu schweigen. Leider kommt deren kreativer Impuls beim Hörer selten an.

Meine persönliche Arbeitsweise

Die beste Zeit für´s Komponieren fängt bei mir definitiv nach 21 Uhr an und endet gegen 3 Uhr. Innerhalb dieser Zeitspanne scheint mein Gehirn intuitiver, assoziativer, emotionaler zu arbeiten. Auch kann ich mich dann besser von den nicht-musikalischen Erfordernissen des alltäglichen Lebens abkoppeln. Die teils stimmungsvollen Ergebnisse nächtlicher Inspirationen sind jedoch bei Tageslicht betrachtet meist überarbeitungsbedürftig und stellen eher eine Art Rohmaterial dar, welches noch geschliffen werden will. Alles Strukturelle und Technische erledige ich besser tagsüber, dann arbeitet mein Gehirn klarer, selektiver, logischer.

Ganz wichtig ist für mich, dass ein Song während seiner Entstehung nicht langweilig wird. Schließlich höre ich ihn während seiner Entstehungsphase hunderte Mal, da wächst sich Monotonie und ein Mangel an Ausdruckskraft zur unerträglichen Belastung aus. Nichts ist schlimmer als das Gefühl der Sattheit, welches aufkommt, wenn eine Komposition zu gleichförmig klingt oder in eine Neuauflage tausendfach gehörter Abläufe mündet. Womit wir beim Problem mit den Loops, Phrasen, Sequenzen und Arpeggien wäre. Diese nehmen mir zwar mitunter das mühselige Einspielen eigener Pattern ab oder liefern virtuose intrumentale Passagen, die ich so nie selbst einspielen könnte. Doch es ist nicht leicht, diese für sich alleine genommen oftmals genialen Bausteine in einem Arrangement stimmig einzubinden ohne in die Sackgasse ermüdender Endlos-Schleifen zu geraten. Man muss also Tricks anwenden, um solche fertigen Bauteile anzupassen: zerschnipseln, modulieren, mit Effekten oder mit spezieller Audio-Editing Software verfremden.

Celemony Melodyne bietet detaillierte Gestaltungsmöglichkeiten für jede Note, auch bei polyfonen Instrumenten. Darüber hinaus ermöglicht das Programm außergewöhnliche Verfremdungseffekte, beispielsweise durch das Dehnen/Stauchen oder eine Tonhöhen/Formanttransponierung von Teilspektren.

Meine Lieblingssongs von King Krimson, Zappa, Fred Frith oder Aqsak Maboul höre ich seit Jahrzehnten immer wieder, ohne mich jemals daran sattgehört zu haben. Das liegt bei diesen Kompositionen abgesehen von den ungewöhnlichen Ideen, die hier umgesetzt werden, an ihrem speziellen musikalischen Mikrokosmos: interagierende Musiker gestalten ein lebendiges Gesamtkunstwerk. Davon kann man im Einmann-Computerstudio nur träumen: Loops und Samples verschiedener Instrumente reagieren zunächst einmal nicht aufeinander. Man kann sie nur der Reihe nach einspielen. Mit einem glücklichen Griff bei der Klangauswahl macht dieser Teil der Arbeit am meisten Spaß. Anschließend beginnt eine schwierige und oft langwierige Detailarbeit.

Wenn man sich in diese Detailarbeit vertieft, bleibt sie dennoch ein kreativer Schaffensprozess. Dabei erlebt man eine fortwährende Transformation der Komposition, wie sie reinen Musikkonsumenten verschlossen bleibt. Ganz nach dem Leitsatz „Der Weg ist das Ziel“ dringt man bei der Echtzeitarbeit an pausenlos durchlaufenden Songabschnitten in ganz eigene musikalische Erlebniswelten vor, die durch ein späteres Hören des kompletten Songs kaum mehr erreichbar sind. Ein Cycle, zu dem man eintrommelt, spielt oder den man mit Filtern bearbeitet, kann dabei die Dimension eines musikalischen Mantras erreichen. Und hier gibt es sie dann doch: Die kreative Mensch-Maschine-Interaktion.

Ich baue meine Kompositionen vielfach um, lösche Instrumente heraus, füge Lücken hinzu, die ich mit neuem Material fülle. Das sorgt für Abwechslung.

Tipp 1: Keine Angst vor dem Löschen einzelner Fragmente, Songabschnitte, Instrumente oder Spuren, wenn Zweifel aufkommen und man sich mit dem, was man da hört, nicht mehr wohl fühlt. Ein Song, der während der Komposition einem Wandel unterliegt, produziert bessere, neue Ideen als eine festgefahrene Sache, in die man Stunden investiert, ohne wirklich befriedigende Ergebnisse zu erzielen.

Tipp 2: Wenn es mal nicht mehr weiter geht: Entkrampfung durch Liegenlassen, Pause machen, mit etwas anderem beginnen. Manchmal reicht schon ein kurzes Abwenden von der Musik, schon kommt die Lösung des Problems von alleine.

Wie dem auch sei: Was am Ende der Arbeit herauskommt, ist nie ein wirklich fertiger Song, immer nur ein Zwischenzustand, an dem man später noch weiter arbeiten könnte. Wenn ich diesen Zwischenzustand dennoch für veröffentlichungswürdig halte, kommt er in das nächste Album.

Es geht los

Den Startschuss für eine Komposition liefert immer ein Instrument, von dem ich denke, dass ich es unbedingt ausprobieren sollte. Wenn ich als Testautor für Musiksoftware Audiodemos erstelle, passiert es immer wieder, dass kleine Anstätze zu Kompositionen entstehen. Diese notiere ich mir in der Absicht, später darauf zurückzugreifen.

Nachdem ich also mit dem Startinstrument eine Minimal-Grundlage erstellt habe, entscheide ich intuitiv, welche anderen Instrumente dazu passen würden oder in einem spannenden Kontrast stehen.

Zwischendurch bounce ich oft, wandle also die MIDI-Einspielungen in Audiotracks um und werfe die Instrumente wieder aus den VST-Slots heraus, um die CPU-Last niedrig zu halten, bei geringer Latenz weiter einspielen zu können und um mir den Rückweg abzuschneiden. So komme ich gar nicht erst in Versuchung, später ein vielleicht doch nicht ganz passenden Instrument stundenlang zurechtzubiegen, sondern lösche den Track dann gleich ganz und lasse mir etwas Neues einfallen.

Beim Projekt „Kalte Schachtel“ geht es zunächst mit Soniccouture Konkrete 3 los. Konkrete 3 ist eine virtuelle Beat-Box, läuft auf dem NI Kontakt Player, bietet eine Unmenge experimentell ausgerichteter Club-Grooves und hat einen internen randomisierbaren Sequenzer, den sogenannten Beat Shifter. Der Beat Shifter generiert dosierbare zufällige rhythmische Abweichungen einzelner Schlaginstrumente. Der Sound von Konkrete 3 ist ausgesprochen knackig, frisch und präsent.

ksbd1

Das Projekt lege ich in Cubase 7 an. Als Tempo wähle ich 90 BPM. Ich steppe durch ein paar Konkrete 3 – Presets.

 

 

 

Nach kurzem Basteln an der Sequenz nehme ich diesen Beat:

 

Der Song soll insgesamt minimalistisch werden, keine Vielzahl an Instrumenten (ein Vorsatz, den einzuhalten mir selten gelingt). Ich suche mir zunächst einen Gesang und stoße in der schon lange nicht mehr bemühten Library Vocal Forge von Zero G auf einen Rap, von dem ich drei Patches in Kontakt 5 lade:

ksbd2

Dieser Gesang kommt auf mich zu (Ausschnitt):

 

Rap ist eigentlich ganz und gar nicht meine Sache. Aber es reizt mich, dieser monotonen Stimme zu Leibe zu rücken, quasi eine Karrikatur oder zumindest eine umfassende Transformierung vorzunehmen. Die überlauten Atemgeräusche am Ende der Gesangspassagen sind übrigens im Originalsample enthalten. Hier wurde möglicherweise ein Kompressor übertrieben eingesetzt. Um diese Atemgeräusche kümmere ich mich später – falls das dann noch nötig ist.

Für die Transformation lade ich zunächst Melodyne und bearbeite vor allem den Tonverlauf der einzelnen Gesangsfragmente, teilweise auch deren Länge, das Einschwingverhalten und die Formanten …

ksbd3

… sodass die Glitches (Tonhöhenabrutscher), mit der der Sänger beinahe jedes Wort gleichförmig enden lässt, nun nicht mehr monoton nach unten abdrehen, sondern einige auch nach oben – was eine ganz andere Betonung bewirkt:

 

Dass bei der extremen Bearbeitung der Glitches Artefakte oder unnatürliche Tonsprünge entstehen, stört mich im Moment nicht.

Nun möchte ich aber völlig von der männlichen Stimme wegkommen, deren Ausstrahlung mir nach wie vor nicht gefällt. Warum nicht eine Frauenstimme draus machen?

Dazu gibt es Trax von Flux/Ircam-Tools. Ein Plug-in, welches leider sehr CPU-hungrig ist. Um es einzusetzen, muss ich zwischenzeitig die Puffergröße deutlich erhöhen.

ksbd4

Ich transponiere Stimme und Formanten im Algorithmus „spoken voice“, verjünge und feminisiere die Stimme und füge noch etwas Rauheit hinzu.

 

Die virtuelle Sängerin klingt ein wenig böse und an einigen Stellen auch ein wenig verrückt.

Wegen des hohen Anspruchs an die CPU entferne ich Trax nach dem Bouncen wieder.

Um den Gesang deutlicher und druckvoller zu machen und nach vorne zu holen, benutze ich den Noveltech Vocal Enhancer

ksbd6

… gefolgt vom Waves Rennaisance Vox (Kompressor und Gate):

ksbd7

Außerdem setze ich vor den Vocal-Enhancer noch einen SPL Dual-Band De-Esser, um einige unangenehme Spitzen bzw. Zischlaute zu reduzieren.

ksbd8

Das Ganze klingt jetzt so:

 

Die Lyrics nehme ich auch gleich als Titel für den Song: Box so cold → Kalte Schachtel

Durch Schneiden, Kopieren und Einfügen erstreckt ist der gesamte Song inzwischen auf ungefähr zweieinhalb Minuten Länge. Zeit, weitere Instrumente hinzuzufügen. Ich entscheide mich für ein Philips Philicordia aus der Library The Attic von Soniccouture. Das transistorbetriebene Philicordia aus den 60er Jahren klingt brav und passt eigentlich zu einer gepflegten Tanzsaalmusik vergangener Zeiten. Ein schöner Kontrast zum bösen Hexen-Rap?

ksbd9

Der Rap gibt kaum eine Tonart vor. Ich entscheide mich für eine einfache Folge von Dreiklängen in B-Dur.

Auch der Rhythmus kann etwas Verstärkung gebrauchen. Als ich kürzlich die Library Cinematic Keys von Samplelogic getestet habe, habe ich mir Presets notiert, die mir besonders gut gefallen haben. Eines davon passt:

ksbd10

Der Ausschnitt mit Orgel und dem Cinematic Keys – Beat hört sich nun so an:

 

Nun braucht der Gesang dringend Räumlichkeit und Effekte. Damit es etwas kaputt klingt, entscheide ich mich hier zunächst für eine Telefon-Mikrofon-Raum-Verzerrer-Kombination aus Speakerphone 2 von Audioease …

ksbd11

… mit vorgeschaltetem Delay (von Waves):

ksbd12

 

Das Delay verfügt über eine leichte Modulation und simuliert damit Gleichlaufschwankungen eines Bandechos. Ideal auch für die Philicordia-Orgel, die ein bisschen Leiern und Patina vertragen kann. Also mische ich sie über Effekt Send auch in den Effektkanal – ebenso eine Winzigkeit der Konkrete 3 – Drums, die ich zuvor als Einzelinstrumente in Audiotracks exportiert habe.

Da die Effektkette reichlich CPU-hungrig ist und ich mit geringer Latenz noch einspielen möchte, bounce ich die drei Spuren, die über diese Kette laufen (Vocals, Philcordia und Konkrete-Drums) der Reihe nach (und natürlich nur den Effektweg, nicht das Originalsignal, um später noch die Möglichkeit zu haben, das trockene und das Effektsignal getrennt abzumischen.)

Als nächstes schnappe ich mir meinen Ibanez-Bass und spiele abschnittsweise eine Begleitung ein.

Um den Bass schon einmal grob in der Lautstärke anzupassen, benutze ich den Waves Bass-Rider …

ksbd13

… und dahinter den Waves CLA 2A – Kompressor.

ksbd14

Mit dem Bass, der immer noch recht mächtig ist (langsam beginne ich mir Sorgen um das Abmischen zu machen), klingt es jetzt so:

 

Als nächstes habe ich ein einfaches Gitarrenmuster eingespielt (und mit Melodyne quantisiert), als Steigerung für das letzte Drittel des Stückes. Den Sound habe ich schon einmal grob mit dem Waves Guitar Tool Rack eingestellt:

ksbd15

 

Um die Flageolets des Basses zu unterstützen, dopple ich sie mit zwei glockenähnlichen, perkussiven Klängen. Bei den Cloud Chamber Bowls und den Skiddaw Stones von Soniccouture werde ich fündig.

ksbd16

 

Den seltsamen Glocken soll aber noch etwas Raum und auch Schwebungen hinzugefügt werden.

Dazu lege ich eine Gruppenspur „Stones & Bells“ und einen Effektkanal an. Die beiden Einzelspuren route ich auf die Gruppe und nutze hier den Send Weg zum Effektkanal, in den ich den GRM Doppler …

ksbd17

… und dahinter den Ircam Verb lade.

ksbd18

Beim Doppler stelle ich eine niedrige Frequenz und die Doppler Variation auf 4% ein. Höhere Werte würden zu einem extremen Eiern führen. Ich möchte aber nur eine dezente Tonhöhenmodulation.

Der Ircam Tools Verb ist ein herrlich organisch, rund und warm klingender Hall.

Das Stones & Bells – Experiment hört sich nun so an:

 

Mindestens einen Glockenschlag könnte man glatt als Opener nehmen. Also füge ich einen Takt am Anfang des Stückes ein (bei Cubase: Cycle für den Bereich setzen, dann Menü Bearbeiten → Bereich → Stille einfügen) und kopiere hierhin ein Duplikat eines entsprechenden Trackausschnitts der Bowls & Stones.

Als nächstes braucht der Orgelpart dringend einen robusten Taktgeber, eine Snare. Nach diversen Versuchen mit gesampelten Snares entscheide ich mich, meine Korg Wavedrum hervorzuholen und anzuschließen. Die Wavedrum hat (unter anderem) eine herrlich blecherne Snare, nämlich die Werksnummer 3. Die Stärke der Wavedrum ist, dass jeder Schlag anders klingt – und zwar weitaus mehr als bei jeder noch so ausgebufften Sample-Library. Allerdings ist die Wave-Drum nicht midifähig.

Das Einspielen macht Spaß, auch wenn es anschließend erheblichen (Audio-) Quantisierungsbedarf gibt. Meine Zeiten als Schlagzeuger liegen lange zurück. Das Quantisieren erledige ich mit Melodyne und experimentiere gleich noch mit Manipulationen von Notenlängen, Anfangsgeschwindigkeiten der einzelnen Hits sowie einer Formantentransponierung. Schließlich klingt die Snare so:

 

Hui – sehr abwechslungsreich, diese Schläge. Ich lasse das aber trotzdem erst einmal so. Die Snare wird später sowieso noch in den Hintergrund gemischt, mit einem Kompressor und Halleffekt bearbeitet. Roh klingt der Part aktuell so:

 

Für den rhythmusbetonten Mittelpart spiele ich ebenfalls auf der Wave-Drum eine Djembe mit Stöcken, nicht mit Handflächen ein. Mit Stöcken gespielt klingt die virtuelle Djembe heller, prägnanter, nicht so bauchig. Auch hier quantisiere ich wieder mit Melodyne.

ksbd19

Die Djembe dröhnt trotz des Spiels mit Stöcken immer noch etwas in den unteren Mitten. Um das zu beheben, setze ich Fabfilter Q2 ein und hebe gleich die charakteristischen Höhen etwas an, um den hölzernen Akzent der Schläge zu betonen.

ksbd20

Da ich die Wavedrum direkt über die Mikrofoneingänge des Motu 828 MkII aufgenommen habe und die Eingangsverstärkung deutlich anheben musste, rauscht die Aufnahme etwas. Um das Rauschen zwischen den Schlägen abzusenken, benutze ich ein Waves Stereo Gate:

ksbd21

Solo hört sich die Djembe jetzt zwar etwas abgehackt an …

 

… im Kontext ist das aber kaum noch wahrzunehmen. Außerdem soll später sowieso noch ein wenig Hall hinzukommen:

 

Als ich mir den Song noch einmal von Anfang an anhören will, stelle ich mit Erschrecken fest, dass der Einsatz von Character beim Bass auch meine Spiel-Nebengeräusche drastisch verstärkt.

 

Das kann so unmöglich bleiben. Anstelle einer detaillierten und aufwändigen Lautstärkeautomation der Spur probiere ich es mit dem Waves C1 Comp Gate Stereo (in der Signalkette hinter Character).

ksbd22

Den Kompressor benutze ich, um die Transienten etwas herauszuarbeiten und stelle das Attack auf rund 30 Millisekunden ein, mit dem Gate fahre ich die Nebengeräusche herunter. Ganz ausblenden möchte ich sie nicht. Nach kurzem Ausprobieren hört sich der Bass schon wieder akzeptabler an. Doch nun werden die vergleichsweise leisen Flageolet-Töne vom Gate heruntergefahren, klingen also nicht mehr aus. Ein Ausweg ist die Automation des Gate-Thresholds. Nach kurzem Üben gelingt die erste Automationsaufzeichnung schon ganz gut; an einigen Stellen muss ich allerdings noch mit dem Stiftwerkzeug in der Animationsspur nachbessern.

ksbd23

Nun hört sich das Intro so an:

 

Es stellt sich heraus, dass auch bei weiteren Passagen das Gate in der Bassspur justiert werden muss. Solche Arbeitsschritte machen natürlich weniger Spaß, man kommt aber nicht drum herum.

Im Slap-Bass-Teil nehme ich es ganz heraus. Hier spielt der Bass neben dem Gesang die Hauptrolle und soll mit voller Patina herüberkommen:

 

Als nächstes nehme ich mir die Snare vor, die viel zu weit im Vordergrund agiert. Nach einigem Ausprobieren entscheide ich mich für die Sonnox Oxford Dynamics. Mit dem Expander fahre ich die Nebengeräusche herunter und verkürze das teilweise etwas lange Ausklingen; mit dem Kompressor verdichte ich den Sound.

ksbd24

Schließlich setzte ich zusätzlich den Toni Maserati Drum-Channel von Waves ein.

ksbd25

Damit habe ich zwar eine doppelte Kompression und Transienten-Bearbeitung, zusammen bewirken die beiden Plug-ins aber einen definitiv sehr kompakten Sound. Ob es dabei am Ende bleibt, ist im Moment noch offen.

Die Snare hört sich nun folgendermaßen an:

 

Schluss für heute.

Am nächsten Tag ist es Zeit, mal wieder den ganzen Song anzuhören. Die am Tag zuvor eingespielte Djembe gefällt mir nicht so recht. Ich kann einfach nicht mehr richtig trommeln. Die einzelnen Schläge sind zu unterschiedlich, vor allem in der Ausklingphase. Was tun? Nochmal neu eintrommeln würde die Sache wahrscheinlich auch nicht wesentlich besser machen. Also beschließe ich, das Ausklingen abzudämpfen. Dazu gibt es von SPL ein schönes Plug-in, den De-Verb:

ksbd26

Außerdem ist mir die Djembe immer noch zu bauchig. Um das Obertonspektrum aufzupeppen, nehme ich wie zuvor schon beim Bass Noveltechs Character:

ksbd27

Um der Djembe wieder etwas mehr Räumlichkeit zu geben, schicke ich sie vorübergehend via Send FX zum Haupthall, der eigentlich für die Vocals reserviert ist. Die Rhythmus-Sektion hört sich nun so an:

 

Und komplett mit Gesang:

 

Und wieder von Anfang an durchhören. Gleich bei Takt 13, kurz vor dem Orgelpart, würde eine rhythmische Variante gut tun, sozusagen um eine Bridge anzudeuten. Dazu drehe ich einfach den Beat von Konkrete 3 für die Dauer eines Taktes um (in Cubase: Menü Audio → Effekte → umkehren).

 

Mit allen derzeit beteiligten Spuren hört sich die Stelle jetzt so an:

 

Was im Moment noch fehlt, ist Blech. Bei FXpansion BFD2 werde ich fündig:

ksbd28

Die Ride-Becken nehme ich für den Anfang, kurz nach dem „Ha Haaaah“, die japanische Kane (aus der Taiko-Drums-Library für BFD) anstelle einer Hi-Hat für den Djembe-Part und das Crash-Becken für ein paar sparsam dosierte Akzente.

Zeit für eine Bestandsaufnahme. So hört sich der komplette Song im Moment an:

 

Anschließend exportiere ich die BFD2-Becken einzeln (mit der Solo-Funktion in BFD2), um sie später getrennt bearbeiten zu können.

Für den Übergang zum Orgelpart schnappe ich mir einen Ride-Beckenschlag, kopiere ihn vor den Opener des Crash-Beckens und lasse ihn rückwärts ablaufen:

ksbd29

Der Übergang hört sich nun so an:

 

Den gleichen Effekt wiederhole ich noch einmal am Ende des Songs. Dort baue ich außerdem noch die Kane aus dem Djembe-Part ein und lasse sie hier ebenfalls rückwärts ablaufen.

ksbd30

Das Ende hört sich jetzt so an:

 

Zurück zum Intro: Hier gibt es auch Handlungsbedarf. Das Ride-Becken setzt einen Takt zu spät ein, klingt zu lange aus und hat einen zu verwaschenen Anschlag. Ich schiebe den geschnittenen Audiotrack einen Takt nach vorne, ergänze das Ende durch Schneiden, Duplizieren und Anfügen. Für das Klangdesign verwende wieder einen SPL De-Verb, um die lange Sustainphase herunterzuregeln und einen SPL Attacker, um die Transienten zu betonen:

ksbd31

Außerdem füge ich über den Send-FX dezent etwas Hall hinzu.

Der Abschnitt hört sich nun folgendermaßen an:

 

Der Orgelpart könnte auch Vocals gebrauchen. Hier möchte ich aber keine Melodie hinzufügen, sondern nur ein paar möglichst energiegeladene Ausrufe. Solche finden sich in der Taiko-Drums Library von BFD.

ksbd32

Es stellt sich heraus, dass die Schreie auch nach dem Ausschalten der Overhead, Room- und Ambience-Mikros in BFD immer noch einen gewissen Raumanteil beinhalten. Mit dem SPL De-Verb kann man diese problemlos herausnehmen. Die Passage mit den trockenen Stimmen hört sich nun so an:

 

An Stelle einer einzelnen Stimme hätte ich gerne eine Gruppe. Diese erzeuge ich mit der Harmony Engine EVO von Antares:

ksbd33

Die derart künstlich in Echtzeit generierten Stimmen klingen zwar immer etwas unnatürlich und verwaschen, für einen Background-Chor reicht es aber in der Regel. Außerdem gibt es ja Werkzeuge, etwas verwaschen klingende Stimmen wieder aufzufrischen. Für die künstlich erzeugte Gruppe setze ich den Waves CLA Vocal-Channel ein:

ksbd34

Die Hauptstimme leite ich per FX-Send zum Haupthall. Die Passage hört sich nun so an:

 

Schluß für heute.

Einen Tag später finde ich die Japanischen Taiko-Shouts doch etwas zu dominant. Außerdem kommen sie viel zu früh im Stück. Als Steigerung und Überraschungseffekt am Ende sind sie vielleicht noch passabel. Ganz herauslöschen will ich sie zu diesem Zeitpunkt zumindest noch nicht. Also verschiebe ich die Aufnahmen zum letzten „Refrain“, wo sie jetzt allerdings auch auf den Rap-Gesang treffen. Daher muss ich schneiden und die einzelnen Schreie in die passenden Lücken verschieben. Auch sollen sie deutlicher zurücktreten, also regele ich die Lautstärke etwas herunter und fahre den Hallanteil hoch. Der neue Schluss hört sich nun so an:

 

Nun stellen sich einige Fragen:

Die Instrumentierung ist nicht übermäßig voll, trotzdem gilt es zu überprüfen, ob passagenweise Instrumente auch wegfallen können, weil sie nicht notwendig sind – ganz nach dem Motto: Weniger ist manchmal mehr.

Gibt es Stellen, an denen neue, zunächst leere Parts eingebaut werden können, um den gleichförmigen Verlauf zu unterbrechen und Abwechslung zu schaffen?

Soll der Song nach dem jetzigen Ende noch weiter ausgebaut werden?

Oder ist es besser, wenn alles so bleibt, wie es ist?

Zur ersten Frage: Es gibt tatsächlichen einen Track Drums FX, der bei -10dB beigemischt ist und den Beat eigentlich eher unscharf macht anstatt ihn räumlich aufzubauen. Diesen Track lösche ich komplett. Die allgegenwärtige Vocal-FX-Spur fahre ich per Einzeichnung einer Lautstärkekurve in der Animationsspur an einigen Stellen weit herunter. Die Originalstimme kommt nun viel deutlicher ´rüber. Sie muss allerdings noch gedoppelt werden und braucht definitiv Hall. Doch dazu komme ich später.

Es gibt tatsächlich eine Stelle, bei der der Song unterbrochen werden kann, und zwar vor dem Djembe Part. Das ist zwar nicht zwingend erforderlich, könnte aber dem Spannungsaufbau an dieser Stelle helfen. Die Lücke hört sich so an …

 

… und muss nun aufgefüllt werden. Und zwar mit Material, dass sowieso schon im Song vorhanden ist.

Dazu setze ich einen Cycle, der einen Takt vor der Lücke beginnt und einen Takt hinter ihr endet. Nun nehme ich mir den Konkrete-Drums-Beat vor, lade Melodyne in den ersten Insert-Slot, transferiere die Passage in Melodyne und lasse sie dort mit dem Algoritmus für melodisches Material analysieren. Mehrere Teilspektren der Drums werden von Melodyne als unterschiedliche Noten übereinandergelegt. Diese dehne ich nun in der Länge, verstärke den Tonhöhenverlauf, verändere die Attackspeed, kopiere ein Segment und setze es um eine Oktave transponiert wieder ein … kurz: Ich tue alles, um absonderliche, kleine Detailklänge zu erzeugen.

Aus dem Kane-Track (diese japanische Hi-Hat-Alternative) schneide ich zwei Takte heraus, kopiere sie in die neue „Bridge“, lasse den Take hier aber rückwärts abspielen, quantisiere die Schläge auch hier mit Melodyne und dehne die letzte „Note“, um einen langsam anschwellenden Klang zu erreichen.

Als nächstes kopiere ich einen Ausschnitt der Vocal-FX in die Lücke und lasse diese ebenfalls rückwärts abspielen.

Um der Bridge noch etwas Fundament zu geben, kopiere ich ein paar Schläge Deep Drum (von Konkrete 3) sowie Fragmente des Friendly-Fire-Beats aus Cinematic Keys in die Lücke, die nun schon keine mehr ist. Hinzu kommen noch die Skiddaw Stones und Chamber Bowls, die als einzige tonale Bestandteile ihr Thema aus dem vorangegangenen Teil fortsetzen und so eine Brücke schlagen. Die neue „Artefakt-Bridge“ hört sich nun so an:

 

Der nächste Tag:

Was mich immer noch nervt, sind die zu dominanten Taiko-Schreie. Ich konstruiere für sie zunächst einmal einen anderen, weniger kompakten und größeren Hall, um sie etwas weiter vom Hörer weg zu rücken.

Der algorithmische Ircam Verb ist immer noch mein Lieblingshall. Er hat einen sehr organischen, natürlichen Klang und eine große Palette an Einstellmöglichkeiten, die mir vom Schreiben meines damaligen Testes noch gut in Erinnerung sind (und das ist leider nicht immer so: Manchmal stöbere ich kurz durch meine eigenen Tests, wenn ich mit einem Plug-in nicht auf Anhieb zurechtkomme).

ksbd35

Nun route ich die beiden Spuren Taiko Vox und Taiko Vox Harmony über den Send-Weg zum Ircam Verb. Um das Originalsignal herunter zu regeln und den Hall dennoch ausreichend ansteuern zu können, schalte ich auf Pre-Fader im Send-Weg um.

ksbd36

Dann lege ich den Hall für die Taiko Vox per Panorama auf rechts und die Harmony-Stimmen auf links, sodass sie im Raum von verschiedenen Stellen aus schreien. (Der Panorama-Schalter befindet sich unten rechts im Send-FX-Bereich.)

Die Orgel hätte ich gerne noch etwas schräger, leidernder. Dazu benutze ich das Modulation-Delay von Waves:

ksbd37

Zusätzlich schicke ich sie über einen Ampsimulator aus IK Multimedia AmpliTube 3,

ksbd38

zusammen mit einem Rotary Cabinet:

ksbd39

Um den Effekt zu verdeutlichen, habe ich im folgenden Audiodemo die Inserts erst in der Mitte zugeschaltet:

 

Am Arrangement will ich nun nichts mehr ändern, oder doch, noch eine Kleinigkeit: In die Bridge vor dem Djembe-Part baue ich als kleinen Gag noch eine Babystimme ein (aus Studio Box Mark II).

Bevor es zu Mix geht, baue ich den Gesang aus, indem ich per Melodyne zwei im Timing etwas abweichende zusätzliche Stimmen erzeuge. Dafür kopiere ich den Gesangstrack zweimal, lasse die Kopien mit Melodyne nacheinander analysieren, klicke in Melodyne alle Noten (bzw. Blobs, wie die Fragmente im Melodyne-Jargon heißen) an, stelle die Zeitkorrektur auf einen absichtlich zu groben Wert, nämlich ¼ Triole ein und führe eine Quantisierung mit etwa 30% Stärke durch.

ksbd40

Den zu groben Quantisierungswert brauche ich, um auch wirklich hörbare und ungleichmäßige Abweichungen vom Original zu erreichen. (Ungleichmäßig werden die Abweichungen deshalb, weil die Blobs, die bereits auf einer Viertelnote oder knapp daneben liegen, kaum quantisiert werden, Achtel oder Sechzehntel außerhalb des Viertelrasters dafür umso stärker).

Die Klonstimmen mische ich nun im Panorama nach links und rechts und senke sie in der Lautstärke um etwa -10dB ab. Während die zentrale Stimme in der Mittelposition weiterhin mit dem SPL De-Esser, dem Noveltech-Vocal-Enhancer und dem Waves R-Vox Kompressor bearbeitet wird, nehme ich für die beiden Klone den Insert-Effekt „in your face“ aus Toontrack EZmix 2:

ksbd41

Für die Vocals lege ich nun im Cubase-Mixer eine Gruppenspur an, zu der ich die drei Lead-Gesangsspuren route, um sie in der Lautstärke gemeinsam kontrollieren zu können.

Außerdem benötigen die Vocals nun endlich einen schönen Hall. Hierfür nehme ich eine weitere Instanz des IRCAM-Verb in einem neuen FX-Kanal und baue mir einen Raum mittlerer Größe zusammen. Der Lead-Gesang soll lediglich verdichtet werden, kurz und prägnant auftreten und nicht als Vocal-Teppich durch den Raum schweben.

ksbd42

Anstatt die Vocals über den Send-Weg der Gruppe zum Hall zu routen nehme ich jedoch die Sends der Einzelkanäle. So kann ich wieder den nach links gerouteten Klon per Panorama-Regler zum rechten Kanal des Reverbs schicken und umgekehrt den rechts platzierten Klon auf die gegenüberliegende linke Raumseite. Dieser kleine Trick bewirkt einen lebendigeren, offeneren Raumklang. Die Originalstimme platziere ich auch beim Hall in der Mitte.

Um dem Bass mehr Brillanz und Lebendigkeit zu verleihen, lade ich Noveltech Character.

ksbd43

Auch die Orgel ist mir zu mittig und könnte etwas mehr strahlen und luftiger wirken. Auch in diesem Fall hilft Character weiter.

Die Djembe bearbeite ich mit dem Aphex Aural Exciter von Waves:

ksbd44

Zwei Wochen später

Nun geht’s ans Mastering. Ich habe hier keine vorgefertigte Kette von Effekten, sondern probiere bei jedem Song unterschiedliche Alternativen aus. Ganz vorne steht immer ein Equalizer oder ein dynamischer EQ. In diesem Fall habe ich mich für beides entschieden, zunächst für den API 560 von Waves, allerdings nur für dezente Korrekuren. Diese reichen aber aus, um den Klang deutlich offener zu machen. Außerdem liefert der API 550 einen Analogtouch, bringt also Wärme in den Sound:

ksbd45

Ihm folgt der Dynamic EQ aus der Izotope Advanced Mastering Suite. Dieser bietet getrennte Bearbeitungsmöglichkeiten für das Mittel- und Seitensignal, was einer weiteren räumlichen Differenzierung zugute kommt.

ksbd46

Einen erstklassigen Sättigungseffekt, ebenfalls mit Mid-Side-Betrieb gewährleistet der Brainworx Saturator, der dritte Effekt in der Mastering-Kette:

ksbd47

Druck und Dampf generiert der Brainworx bx-XL, ein Multiband Mastering Limiter mit Mid-Side-Modus und diversen Extras:

ksbd48

Am Ende steht das altbewährte Dithering-Plug-in aus dem Cubase-Repertoire (im 16-Bit-Betrieb):

ksbd49

Und das wär´s dann auch für´s Erste.

Ich finde der Artikel ist lang genug geworden – Sie wahrscheinlich auch, wenn Sie es geschafft haben, bis hierhin alles zu lesen. Die wichtigsten Arbeitsschritte habe ich erwähnt und auch bei der Materialschlacht mit den diversen Plug-ins keine Lücken gelassen.

Was nicht in allen Details ausgeführt ist, sind die ständigen Nachjustierungen, etwa an den Lautstärkeverläufen aber auch an den Einstellungen der diversen Plug-ins. Auch beim Einsatz der Mastering-Plug-Ins nutze ich immer die Möglichkeit, die Einzelspuren oder Gruppen noch einmal nachzuarbeiten.

Bleibt noch das vorläufige Ergebnis, für langsamere Internetverbindungen in 128k mp3:

 

In 320k mp3:

 

Danke für das Interesse,

Andreas Ecker

ksbd0

Epilog:

Es kam so wie es kommen musste: Der Song ist noch nicht fertig. Über die Hi-Fi-Anlage im Wohnzimmer dröhnen die Tiefenbässe. Leider ist der CD-Player im Auto kaputt; dieser war früher eine zweite Kontrollinstanz: Wenn bei mittlerer Lautstärke das Handschuhfach rappelte, stimmte etwas mit den Bässen nicht.

Ein Freund bemerkte, dass die mit Trax transformierte Stimme wie „Eminem“ klingt, laut Wikipedia ein US-amerikanischer Rapper. Kaum zu glauben, dass ein echter Mensch eine solche Stimme produziert, dachte ich. Ich kenne diesen Musiker nicht, möchte aber vorsorglich darauf hinweisen, dass die Ähnlichkeit des Stimmcharakters, wenn es sie wirklich geben sollte, nicht gewollt war.