Cubase 6 - Note Expression

- 1 -


Woher haben die Jungs bloß solche Texte:

Die renommierte VST Expression Technologie, die in der vorherigen Cubase Version eingeführt wurde, ist in Cubase 6 zu einem mächtigen und hocheffektiven Toolset für MIDI Orchestrierung herangewachsen.

(Wortgleich bonedo.de, recording.de, buenasideas.de, proaudio.de).

Über die Entstehung dieses „hocheffektiven Toolset” – einer „Revolution”, wie es anderswo heißt – aus einer mittlerweile 17 Jahre alten Idee muß ich gelegentlich noch erzählen.



- 2 -


Ich fange mal an mit einer Liste von Dingen, die Note-Expression (NE) nicht ist.

  • Es ist kein MIDI-Feature. Es geht um einen Weg, der über die Limitierungen von MIDI hinausgeht. MIDI wird zwar ausdrücklich unterstützt, ist aber nur noch ein Subset.

  • Die Anwendung beschränkt sich nicht in der Ansteuerung von Software-Instrumenten, die VST 3.5 unterstützen. Man kann sie auch mit via MIDI angesteuerten (virtuellen wie Hardware-)Instrumenten verwenden.

  • Es geht nicht um Orchesterkomposition. Sicherlich werden all jene, die mit Orchester-Libraries umgehen, noch besonders von NE profitieren. Das gilt aber auch für alle anderen Nutzer von „liegenden“ Sounds – all jenen Klängen, die nicht durch Anschlagen oder -reißen entstehen (wie ein Klavier oder eine Gitarre), sondern die tendenziell endlos klingen (Streicher, Bläser, Orgel – technisch gesprochen: alle Sounds ohne Veränderung in der Sustain-Phase).

  • NE ist kein „Toolset”; nicht einfach eine Sammlung unterschiedlicher Werkzeuge, um einen bestimmten Task zu erledigen. Es ist ein neuer Weg, um mit all jenen Daten umzugehen, die über den klanglichen Verlauf einzelner Noten bestimmen.[1]

Es ist mE. wichtig zu verstehen, daß NE nicht dafür erfunden wurde, um konkrete „Use-Cases“ oder „Workflow-Issues“ zu adressieren. Natürlich gibt es genug konkrete Anwendungen, die ich im Folgenden auch beschreiben werde. Daneben gibt es aber auch Bereiche, die erst sichtbar wurden, nachdem der erste Prototyp für die (hausinternen, wie auch Beta-)Tester verfügbar war.[2] Darüber hinaus vermute ich, daß in der nächsten Zeit, nachdem NE jetzt für die breite Öffentlichkeit verfügbar ist, einige Use-Case-Szenarien sichtbar werden, an die derzeit noch niemand ansatzweise denkt.[3] – Ich komme auf das Thema noch zurück.

Meine Sicht der Dinge läßt sich vielleicht so zusammenfassen: alles, was man mit NE erreichen kann, konnte man auch schon früher tun – allerdings um den Preis, die Perspektive zu wechseln; konkret: man mußte vom „Musiker“ zum „Tontechniker“ schalten.

Das ist nicht mehr länger nötig.

  1. [1] Klar – das klingt nicht sonderlich sexy, und ich verstehe, daß das Marketing hier eine andere Sprache braucht.
  2. [2] Es geht hier um eine technische Idee, entstanden in den Köpfen von Musikern (lot to say about that, though).
  3. [3] So, wie man einst nicht daran gedacht hatte, daß ein MIDI-Sequenzer für die Steuerung der Light-Show auf der Bühne „miß“braucht werden wird - etc.pp.



- 3 -


Wenn Klänge lebendig werden, sind sie dabei, sich ständig zu verändern.[1]

Ein Gitarrist oder ein Klavierspieler hat hier nur eingeschränkte Möglichkeiten: sobald der die Saite gezupft oder mittels der Mechanik angeschlagen hat, ist der Ton „weg“; auf einer „Reise“, die er nicht nicht weiter beeinflussen kann.[2] Anders sieht dies beim Cellist, dem Saxophonisten, nicht zuletzt dem Sänger aus: mit dem Bogen oder seinem Atem kann er den Klang der Töne beeinflussen, während sie klingen.

Ein Keyboarder, der zB. ein gesampeltes Cello ansteuert, hängt hier gewissermaßen zwischen den Welten. Er „schaltet“ einen Ton „an“, wie er dies auch vor einem Klavier tut. Dann hat er aber noch die Möglichkeit, mit Spielhilfen (Pitchbend- oder Modulationsrad, Breathcontroller, uvm.) dem Klang des Tons einen Verlauf zu geben. Diese Spielhilfen produzieren Daten, die im MIDI-Protokoll durchaus flexibel definiert sind: neben Pitchbend und Aftertouch sind dies 128 generische Controller-Typen, die sich in den Klangerzeugern (Synthesizern, Samplern) gerätespezifisch definieren und zuordnen lassen.[3]

  1. [1] Ich habe hierzu – in Bezug auf Sounds aus dem Computer – bereits eine Zusammenfassung versucht.
  2. [2] Dabei kann ein Gitarrist für den Klavierspieler, auf dieser Ebene, durchaus Mitleid empfinden; das wäre ein ganz eigenes Thema.
  3. [3] Das ist noch ein eigenes Thema. Die Art und Weise, in der einzelne Hersteller in ihren Geräten Controller unterstützen und es z.B. mehr oder weniger flexibel den Usern überlassen, sie mit den Parametern der Klangerzeugung zu verknüpfen, hätte eine eigene Schule in der Philosophie der Musik verdient.



- 4 -


Controller-Daten im MIDI-Protokoll haben drei grundsätzliche Probleme:

  • Zunächst ist die Auflösung der Parameter kläglich. Pitchbend läßt sich noch am feinsten steuern – das ist ein 14Bit-Parameter, der einen Bereich von 16.384 unterschiedlichen Werten abdeckt. Die übrigen MIDI-Controller sind beschränkt auf 7Bit, dh. auf gerade mal 128 unterschiedliche „Zustände”.

  • MIDI-Controller bewegen sich frei im Datenstrom, und existieren „zwischen“ den Noten, „neben“ ihnen, auf der gleichen hierarchischen Ebene. Das läuft darauf hinaus, daß man, wenn man eine Note (im Editor der Sequenzer-Software) bewegt, nur eben diese Note bewegt, nicht aber die mit ihr „eigentlich“ assoziierten Controller. Wenn man zB. Pitchbend in einem vom Spiel einer verzerrten Gitarre inspirierten Solo auf dem Synthesizer verwendet, stehen die Pitchbend-Daten auf derselben Ebene wie die Noten. Wenn man dieses Solo im Sequenzer aufgenommen hat und die Performance zB. quantisieren will, kann man entweder alle Daten quantisieren (was für Pitchbend hier überhaupt keinen Sinn macht), oder die Quantisierung auf die Noten beschränken (wie das in jedem Sequencer auch gehandhabt wird; was aber die Pitchbend-Daten von den ihnen „eigentlich“ zugehörigen Noten zeitlich entfernt – mit radikalen klanglichen Konsequenzen).

  • MIDI-Controller sind „kanalbezogen“ – und das ist ein sehr abstraktes Konzept. Es besagt, daß man die unterschiedlichen Stimmen (z.B. die vier Instrumente in einem Streichersatz) eines „Instruments“ (einer „Spur“ auf dem virtuellen Tonband) nur dann unabhängig voneinander adressieren kann, wenn sie über unterschiedliche MIDI-Channels verteilt sind. Das kann man machen – das ist aber eine Sache allenfalls für Spezialisten, die sich mit den Details des MIDI-Protokolls auskennen. In der Praxis läuft es letztlich darauf hinaus, daß man pro Sound genau eine Ebene von Controllern benutzen kann: MIDI-Controller sind auf monophone Sounds beschränkt.



- 5 -


Zu diesen Problemen bietet „Note Expression” (NE) eine Lösung.

  • Neben MIDI unterstützt NE ein internes Datenprotokoll (VST3-Events), bei dem der Wertebereich durch einen 10 Byte (also 80 Bit) breiten Datentyp („C++ double“) definiert ist. Das sind normalisierte Werte zwischen 0 und 1 in Gleitkommazahlen – theoretisch ist der Wertebereich nahezu unbegrenzt, in der Praxis kommt es durch die Umrechnung in vernünftig editierbare Werte zu Rundungen (wer will schon mehrstellige Nachkommastellen editieren).

  • Alle NE-Events (sowohl MIDI-, wie auch VST3-Events) sind nicht länger Bestandteil der Parts, sondern direkt an die einzelnen Noten gekoppelt. Wenn man eine Note verschiebt, wandern diese Events mit – sie behalten stets die relative Position zum Start der Note. Darüber hinaus werden, wenn man eine Note kopiert, auch die Controller-Informationen mitkopiert.

  • NE funktioniert, zumindest im Rahmen von VST3, polyphon. Man kann z.B. in einem mehrstimmigen Streichersatz für jede Note unterschiedliche Verläufe von Tonhöhe, Lautstärke, Pan, Modulation etc.pp. (je nachdem, welche Parameter das angesteuerte Instrument zur Verfügung stellt) realisieren. Bislang mußte man jede Stimme in eine je eigene Spur verschieben, wenn man sie z.B. individuell im Stereobild anordnen und ihnen verschiedene Verläufe in Lautstärke oder Modulation zuordnen wollte. Dieser Schritt entfällt; man kann dies jetzt machen, ohne den Überblick über die harmonischen Verläufe aufzugeben.

Ein Wort zum Verhältnis zwischen MIDI und VST. Erst beim Einsatz von VST3-Events hat man es mit den vollen Möglichkeiten des Features zu tun – und das bedeutet, daß man dann nur VST-Instrumente benutzen kann, die die neueste Version (3.5) des Protokolls unterstützen. Das ist momentan beschränkt auf unseren eigenen Sampler, Halion. Zu Cubase 6 gehört eine abgespeckte Variante, Halion Sonic SE, die zwar VST 3.5 und NE unterstützt, mit der man aber nur Sounds verwenden kann, die in ihrer „Interpretation“ von NE festgelegt sind. Erst in der Vollversion von Halion Sonic kann auch der User (in der sog. Modulationsmatrix) entscheiden, welche Parameter über NE angesteuert werden. - Das Angebot an Sounds, die sich über NE ansteuern lassen, ist also momentan ausgesprochen mager.

Bleibt MIDI. NE funktioniert auch in dieser „Welt”, wenn auch mit einigen Einschränkungen. Zunächst ist man auf monophones Material beschränkt, wobei es gerade für Soloinstrumente eine große Anzahl von Use-Cases gibt. Wer z.B. je mit einer MIDI-Gitarre gearbeitet hat, weiß, wie schwierig es ist, die erzeugten Controller(Pitchbend!)-Daten zu verwalten – solche Recordings kann man nicht einmal sinnvoll quantisieren. Aber auch mit dem Keyboard eingespielte Saxophone oder Trompeten, die ja nur durch intensiven Gebrauch von Controllern „lebendig“ werden, lassen sich mit konventionellen Methoden kaum nachträglich editieren. Mit NE ergeben sich hier radikal neue Möglichkeiten. Trotzdem muß man auch hier, in der eingeschränkten Welt der Monophonie, aufpassen: sobald sich Noten nur zufällig ein wenig überlappen, kann es zu Chaos in der Wiedergabe kommen, wenn die Controller am Ende einer Note mit jenen am Anfang einer neuen Note kollidieren (in Cubase gibt es immerhin Funktionen, mit denen sich solche Konflikte nachträglich auflösen lassen).

Es gibt noch einen Trick, wie sich auch mit MIDI „Note Expression” komplett nutzen läßt: in der Verwendung von polyphonem Aftertouch. Die wenigsten Keyboards können diesen Datentyp noch erzeugen; es gibt aber eine ganze Reihe von VST-Instrumenten, die ihn noch entgegen nehmen. Durch ein entsprechendes Mapping bei der Aufnahme (oder durch das „Malen” der Kurven im Editor) lassen sich Noten-bezogene Controller auch mit MIDI realisieren – allerdings beschränkt auf genau einen Parameter.

[Wird fortgesetzt; dies war jetzt sozusagen der theoretische Teil.]



- 6 -


Ich wollte längst schon über die praktischen Möglichkeiten von „Note Expression“ schreiben – das ist mittlerweile wohl eher überflüssig, weil genug Informationen im Netz die Runde machen.

Erwähnenswert wäre der Workshop von Holger Steinbrink [PDF], der die grundlegende Bedienung erklärt. Aufschlußreich finde ich auch einen Diskussions-Thread im „Logic Pro Help”-Forum. Die Möglichkeiten eines Musikinstruments, das durch „Note Expression“ letztlich erst benutzbar wird, illustriert die Demo von Eigenharp auf der letzten Musikmesse in Frankfurt.



- 7 -


Bei SoundOnSound findet sich ein Artikel, der sich mit „Note-Expression” beschäftigt – durchaus lesenswert:

To complement the newly improved Expression Maps, Cubase 6 introduces what is quite simply a breakthrough new feature: Note Expression. Since the emergence of MIDI, now nearly 30 years ago, the role of making programmed music sound more expressive has fallen to MIDI controller messages. […]



- 8 -


Über das Seaboard-Keyboard findet sich im 'net bisher nur einiges an Marketing-Hype, und wenig echte Information (zB. keine technische Daten/Details).

Wenn ich das richtig verstehe, ist das ein Keyboard mit polyphonem Aftertouch (in MIDI-Sprech), wobei man aber mit jeder Taste noch zwei weitere Controller steuern kann, indem man den Finger auf einer Taste nach oben und unten bewegt, sowie dessen „Neigung” verändert (und zwar polyphon; für jede gedrückte Taste einzeln).

Wenn das so ist (wie gesagt: wenn ich das alles richtig verstanden habe), wäre der Einstiegspreis von knapp $2.000 kaum der Rede wert.

Man bräuchte dann aber Tonerzeuger (virtuelle Instrumente, zB.), die diese Informationen von der Hardware entgegennehmen und angemessen umsetzen – MIDI, mit seiner 1-Byte Auflösung von einem Wertbereich zwischen 0-127, wäre definitiv nicht gut genug.

Vielleicht ist das dann endlich die Initialzündung, die „Note Expression” populär macht – zumindest für jene Musiker, die keine Angst davor haben, neue Möglichkeiten zu lernen.


Nachtrag: In der FAZ gibt es einen Bericht von Jonas Hermann, der aber auch eher nebulös dahin fabelt.



Array 54.163.42.154&&05:33 - 11.12.&&2&&(unknown)&&&&CCBot/2.0 (https://commoncrawl.org/faq/)&& 46.229.168.138&&05:35 - 11.12.&&1&&(unknown)&&&&Mozilla/5.0 (compatible; SemrushBot/2~bl; +http://www.semrush.com/bot.html)&&