Interview: Karl Steinberg
|Kaum ein Mann dürften in seinem Bereich so bekannt sein, wie Karl Steinberg. Er war es, der 1983 den Sequenzer Multitrack für den C 64 programmierte und damit einen Stein ins Rollen brachte, der sich auch heute noch mit unverminderter Geschwindigkeit fortbewegt. Doch Multitrack hat nicht nur bei Steinberg Nachwuchs bekommen – Ableton, Apple, Digidesign und viele andere sind seit Jahren mit eigenen Sequenzern am Markt und viele dieser Produkte bringen ebenfalls ein überzeugendes Konzept mit. Wir haben mit Karl Steinberg über alte Zeiten und neue Möglichkeiten gesprochen.
Geschichte
Steinberg ist seit 1983 am Markt und seit dem beständig gewachsen. Was hat sich seit der Zeit verändert?
Sehr viel, und es würde lange dauern, das ausführlich zu erläutern. Zunächst gab es ja nur MIDI und den C 64, mit dem Multitrack Sequencer und der Pro16 Software. Dann kam der Atari, der schon eine MIDI Schnittstelle eingebaut hatte, und von uns den Pro24. Einer der wichtigsten Meilensteine ist sicherlich das Erscheinen von Cubase, zunächst auf dem Atari. Mittlerweile kam der Mac mehr in den Fokus, was dann zu Cubase Mac und später Cubase Audio (für Digidesigns TDM System) führte. Das haben wir dann ausgebaut und für das Yamaha CBX-D5 schrittweise eine eigene Audio Engine entwickelt, die dann für den Atari Falcon (mit eingebautem DSP) erweitert wurde. Mit dem Erscheinen der PowerPC Macs entwickelten wir dann natives Audio, und wenig später wurde die VST Idee geboren, eine Konsolidierung der vorhandenen Technologien und sicherlich ein besonders wichtiger Meilenstein. Mittlerweile gab es Cubase und später Nuendo für Windows-Systeme. Dann kamen auch noch die VST Instrumente … Sicherlich kann eine solch kurze Zusammenfassung nur unvollständig sein.
Sequenzing
Den Pro-16 hast du wahrscheinlich noch allein entwickelt. Wie viele Programmierer arbeiten nun für Steinberg und wie sind die verteilt?
Wir haben etwa 25 Programmierer im Headquarter und einige freie Mitarbeiter außerhalb. Es ist natürlich schwierig, nur die Entwicklung isoliert zu betrachten, weil ja z. B. QA und Support auch wichtig für die Entwicklung sind, ja eigentlich fast alle Abteilungen … Man kann keine so scharfen Grenzen ziehen, was die Verteilung von Programmierern auf Produkte angeht. Wir arbeiten z. B. auf einem selbst entwickelten Framework, welches unter Anderem Plattform-unabhängiges Programmieren ermöglicht, und es wurden viele Module entwickelt, die nicht nur von einer Applikation genutzt werden. Es gibt nur wenige Programmierer, die ausschließlich an spezifischen Produkten arbeiten, und das fluktuiert auch noch. Jeder Entwickler hat natürlich auch seine speziellen Fähigkeiten, z. B. Architektur, Hardware-nahe Programmierung oder Signal Processing (Effekte etc.), um nur einige zu nennen.
Die meisten Musiker / Produzenten haben bereits alles, was das Herz begeht. Tolle Dynamik-Plug-ins, VSTis und Sequenzer, die nahezu alles können. Womit kann man heute noch echtes Begehren auslösen?
Erstens lässt sich ein so komplexes System wie ein ausgewachsener Sequencer immer verbessern, sei es durch Features, sei es durch ständige Verbesserung des Workflows. Die Instrument Tracks in Cubase sind ein gutes Beispiel dafür. Zweitens gibt es ja auch bei den sogenanten Brot-und Butter Effekten wie z. B. Dynamik Plug-ins durchaus Erweiterungs- und Verbesserungsmöglichkeiten, und Cubase beinhaltet eine ganze Reihe neuer Plug-ins in Spitzenqualität für den Profi-Einsatz. Drittens sind der Kreativität z. B. bei VST Instrumenten kaum Grenzen gesetzt, und es gibt immer wieder neue Instrumente, die auch für immer individuellere Sound-Gestaltung sorgen.
Ist der Punkt absehbar, an dem eine wirkliche Marktsättigung eintritt?
Nein, denn sowohl die Entwicklung der Hardware, seien es immer schnellere CPU’s, seien es externe Geräte, als auch die der Software (System und Effekte/Instrumente) zeigen eine ungebremste Dynamik. So haben wir z. B. schon sehr früh (bei Erscheinen der ersten dual-CPU Macs) paralleles Audio-Processing eingeführt und dieses Know-how konsequent ausgebaut, so dass sich unsere Audio-Applikationen sehr gut mit der Anzahl der Prozessor-Kerne skaliert – ein durchaus modernes Thema. Und ich sehe nicht, dass der Punkt erreicht ist, an dem ich nicht noch mehr Processing-Power gebrauchen kann, denn die Qualität des Mixers, der Effekte und der Instrumente wird auch immer besser, wodurch die natürlich auch mehr Rechen-Power brauchen. Weiterhin gibt es Hardware-Integration, Ansätze jenseits des klassischen Sequencing, Networking etc., etc. … kein Ende der Fahnenstange in Sicht.
Tendenziell sind die etablierten Audiosequenzer mit jeder neuen Generation mit besseren Plug-ins ausgestattet. Werden dadurch über kurz oder lang Plug-in-Lösungen von anderen Anbietern überflüssig?
Wohl kaum, denn wie schon bemerkt sind der Phantasie gerade bei den Instrumenten kaum Grenzen gesetzt. Die Praxis zeigt dies auch deutlich, täglich erscheinen wieder neue Plug-ins und Instrumente, sowohl konventionelle als auch innovative. Dazu kommt, dass ich als Produzent ja auch immer nach individuellen Lösungen suche; ein Reverb ist zum Beispiel nicht einfach nur gut, sondern jedes Produkt hat seine eigene Charakteristik, und man sucht trotz des grossen Angebots auch hier immer wieder nach neuen, einzigartigen Lösungen und Sounds.
Sind noch große Qualitätssprünge bei den Audioengines der Audiosequenzer zu erwarten?
Es kommt darauf an, was man unter Qualität versteht. Was die Auflösung der Audio-Samples angeht, gibt es nicht mehr viel zu verbessern, alle Sample Raten werden unterstützt und im Dynamik-Bereich kann man allenfalls noch auf 64 bit Sample-Auflösung gehen, was aber abgesehen von der internen Behandlung spezifischer Algorithmen (die dann intern oft auch jetzt schon mit 64 Bit Auflösung rechnen) kein wahrnehmbares Ergebnis mehr bringt. Was ansonsten die Qualität der Engine, also z. B. deren Routing-Möglichkeiten usw. angeht, lassen sich schon weitere Verbesserungen realisieren, wie z. B. der Control Room in Nuendo und jetzt auch in Cubase zeigt.
Seit Jahren sind Midi, Audio und Video im Sequenzer vereint. Siehst du weitere Medien, die in Cubase vereint werden?
Gibt es welche? Im Ernst, Lichtsteuerung kann man ja auch schon realisieren. VST und andere Protokolle erlauben weit mehr als das, was MIDI an Steuerung und Editierbarkeit z. B. musikalischer Ereignisse erlaubt, und da werden wir sicherlich auch noch Fortschritte und Innovationen sehen. Integration externer Hardware und Remote Control spielen ebenfalls eine Rolle. Als Medien in dem Sinne kann man aber wohl nur MIDI, Audio und Video bezeichnen.
Aus deiner Sicht: Was hebt Cubase von Pro Tools, Logic und Sonar ab?
Ich denke ein starker Punkt ist die Bedienbarkeit. Wer mehr oder weniger tief in ein solch komplexes Gebilde eintaucht, braucht ein System, welches eine flüssige Arbeitsweise erlaubt und gleichzeitig diese Vielfalt an Features bietet. Letztendlich kann ein guter Künstler oder Produzent mit jeder halbwegs brauchbaren Software Resultate erzielen, aber der möglichst direkte Zugang spielt eine wichtige Rolle. Natürlich gibt es noch viele weitere Details, in denen die jeweilige Software ihre Stärken hat, und Cubase hat gerade von denen viel Lob eingeheimst, die glaubten, dass es nicht mehr viel zu verbessern gäbe.
Stichwort Internet: Es gibt Webbasierte Lösungen für die weltweite Zusammenarbeit von Musikern. Lässt sich so ein Feature direkt in Cubase integrieren und wird das kommen?
Nuendo hat ja schon eingebautes Networking, allerdings geht es da eher um geschlossene Kommunikation in professionellen Umgebungen (was übrigens von Profis im Bereich Postproduktion in Hollywood sehr geschätzt wird). Es gibt ja einige Plug-ins, die Online Collaboration erlauben, wie z. B. bei digitalmusician.de, welches ich mit Manfred Rürup, (Mitbegründer von Steinberg) betreibe. Weiterhin gibt es Loop-basierte Tools usw. Diese arbeiten oft Plattform-übergreifend; ob und wann es eine integrierte Lösung in Cubase geben wird, kann ich nicht sagen.
Hardware
Stichwort Hardware: Welche Chancen haben Firmen wie Roland, Yamaha, und Co. in einem Markt, in dem Softwareinstrumente in immer kürzerer Zeit, für immer kleineres Geld mehr Möglichkeiten und bessere Sounds liefern?
Gerade die Zusammenarbeit mit Yamaha zeigt, dass wir hier schon große Schritte gemacht haben, siehe z. B. die Studio Connnections Technologie. Diese Technologie ist ein grosser Schritt in Richtung vollständige Integration von Hardware und Software. Ein mit Studio Connections integrierte Hardware-Gerät stellt sich dem Benutzer genauso dar wie z. B. ein natives Plug-in. Die Grenzen zwischen Soft- und Hardware verschwimmen gewissermaßen, da durch den hohen Grad an Integration es dem User ja egal ist, ob das Feature in Software oder Hardware realisiert ist.
Wird Steinberg-KnowHow in Zukunft auch in Yamaha-Produkten zu finden sein?
Ja – und umgekehrt. Wir arbeiten fleißig an der Umsetzung der vollständigen Integration von Applikationen und Hardware Devices, Studio Connections ist der erste Schritt zum komplett vernetzten, integrierten Studio.
Audioediting
WaveLab: Warum gibt es keine Version für den Mac? Der Markt für Audio-Editoren ist gerade bei OS X sehr überschaubar.
WaveLab wurde von vorneherein für das Windows System programmiert und hat extensiv dessen Eigenschaften genutzt, um ein wirklich schnelles und flüssiges Arbeiten zu ermöglichen. Leider ist eine Portierung so aufwändig, dass sie sich nicht mal eben so realisieren lässt. Aber die Chancen steigen ja jetzt, wo Macs mit Intel CPUs ausgestattet sind.
WaveLab hat einen Dongle. Warum diese Entscheidung? Heutzutage ringt man um jeden freien USB-Platz!
Der Steinberg-Key erlaubt ja das transferieren der Lizenzen, so dass ich für alle Steinberg-Programe nur einen Key brauche. Und ein simpler USB Hub kann solche Geräte auch self-powered versorgen.
Über welche Kopierschutzverfahren wird alternativ nachgedacht?
Der Steinberg-Key hat sich als recht brauchbar erwiesen, weil er sowohl für uns als auch für den Benutzer gut handhabbar ist, also gibt es zunächst keinen Grund da etwas zu ändern.
Plug-ins
Wie ist die Entwicklung auf dem Plug-in Markt zu beurteilen – Apple drängt beispielsweise mit der AudioUnit Schnittstelle massiv auf den Markt.
Das Problem der vielen Plug-in Interfaces ist in erster Linie eines für die Plug-in Hersteller, die immer mehr Schnittstellen unterstützen müssen. Und ich kenne so manchen Benutzer, der so manches Plug-in kaufen würde, wenn es denn nur eine Variante für sein System gäbe. Das ist auch wirtschaftlich gesehen nicht sehr sinnig. Je weniger Interfaces, um so besser, denn wesentliche Unterschiede gibt es zur Zeit kaum. Mit VST3 haben wir allerdings eine Version dieser Technologie, die Entwicklern und folglich auch Nutzern viele spannende Möglichkieten eröffnet.
Warum unterstützt Cubase keine DX Plug-ins mehr? Macht es Sinn die Vielseitigkeit eines Produktes in einer höheren Version einzuschränken? Warum?
Es gibt ja Wrapper dafür, und bisher wurde DX ja auch durch einen Wrapper realisiert. Soweit ich weiß, kann man DX plugs immer noch so einbinden, und da es kaum noch interessante Plug-ins gibt, die ausschließlich als DX Version verfügbar sind, stellt das keine Verschlechterung dar. Der Aufwand DX in unseren Hosts auf die neuen Betriebssysteme und künftige 64-bit Kompatibilität zu updaten ist sehr hoch, und es lohnt sich einfach nicht mehr.
Sprechen die verschiedenen Hersteller über einen einheitlichen Plug-in Standard?
Es gab Versuche, die sind aber gescheitert.
Business
Steinberg gehörte kurze Zeit zu Pinnacle. Warum war dieses Intermezzo so kurz?
Das hatte verschiedene Gründe. Zum Einen gehört Pinnacle ja jetzt zu Avid, welches wiederum Digidesign beheimatet, zum Anderen war das ein strategischer Schritt.
War der Deal mit Yamaha aus heutiger Sicht erfolgreich?
Gewiss, denn erstens hatten wir mit Yamaha schon vorher eine recht erfolgreiche Zusammenarbeit und zweitens ist es doch einfacher, mit Leuten zusammen zu arbeiten, die in der selben Branche arbeiten. Es gab bei Pinnacle sicher auch einige interessante Ansätze, aber mit Yamaha haben wir einen Partner, der doch mehr „vom Fach“ ist. Die Integration von Yamaha Hardware und Steinberg Software ist eine Entwicklung, die sicherlich sehr viel Sinn macht, nicht nur technologisch sondern auch wirtschaftlich.
Welche Möglichkeiten ergeben sich noch für Steinberg und Yamaha?
Wie schon erwähnt arbeiten wir an der Integration und Vernetzung von Hard- und Software. Darüber hinaus gibt es einiges aus dem Yamaha Fundus, das sehr gut passt; so sind z. B. im neuen HALion One in Cubase 4 Motif Waves vorhanden, und man darf durchaus auf neue Entwicklungen in Sachen Integration gespannt sein.
Was tut ihr, um VST in der Zukunft für Entwickler und Benutzer weiter attraktiv und um Marktanteile zu halten?
In Cubase wurde schon VST 3 eingeführt, was bald anderen Entwicklern vorgestellt wird und ein vollständig überarbeitetes Plug-in Interface darstellt. Ausserdem ist ja die VST Schnittstelle so etabliert, dass es weiterhin viele neue Produkte gibt, und wir unterstützen Entwickler nach wie vor bei kritischen Fragen.
Danke für das Gespräch.
Jörn Daberkow • Stephan Bernsee