Musikproduktion am Computer (17) - PPQ, BPM, und Samplerate (4)

(Themenanfang)

Ich habe mich schon im Rhythmus-Baukasten damit beschäftigt, welche ästhetischen Auswirkungen die Allgegenwart der „objektiven Time” hat, deren gleichförmiger Puls nahezu jede Musikproduktion am Computer prägt und ihr Entstehen an der Maschine offenkundig werden läßt. Dabei stand bislang meine Behauptung im Raum, „objektive Time” wäre dem Computer inhärent, ohne daß ich dies letztlich begründen konnte.

Man muß zunächst festhalten, daß es nicht die Digitalisierung der Daten ist, die „objektive Time” erzwingt. Man kann eine Live-Performance mit dem Computer so aufnehmen, daß ihre Agogik komplett erhalten bleibt - die Wahrnehmungsschwelle des menschlichen Ohres liegt weit unterhalb der Quantisierung, die das Zerlegen von akustischen Ereignissen in digitale Samples bedeutet. Wenn das anders wäre, müßte man Unterschiede in rhythmischer Hinsicht zwischen einer CD und einer Schallplatte hören - und das ist definitiv nicht der Fall.

Zunächst finden sich historische Gründe, daß man PPQ-basierte Darstellung und Bearbeitung heute für völlig selbstverständlich hält. Die Vorfahren der modernen Computerprogramme - die ersten analogen Sequenzer und Drummachines - bestanden aus einer oder mehreren Reihen von 16 oder 32 Knöpfen oder Reglern, mit denen man jeweils ein rhythmisches Ereignis festlegen konnte: man aktivierte bspw. den 1. und 9. Knopf für die Bassdrum, den 5. und 13. für die Snare, und definierte so die schweren Zählzeiten eines auf Sechzehnteln basierenden Taktes. Mit einem getrennten Regler konnte man dann das Tempo einstellen. Schon hier findet man all jene grundlegenden Bedienelemente, die auch heute noch eine Rolle spielen - freilich in einer so groben Auflösung, daß harte Quantisierung bereits voreingestellt war und gar nicht umgangen werden konnte.

In der Folge ließ sich das stark dynamisieren. Schon mit den ersten Hardware-Sequenzern Mitte der 80er ließen sich Tickabweichungen und Temposchwankungen programmieren. Bloß: das hat kein Mensch getan. Man war bereits derart auf die quantisierten Grooves eingehört und festgelegt, daß man selbst eine live gespielte Aufnahme zuerst quantisierte. Der Tempotrack spielte schon hier jene Rolle, die er bis heute hat: man hat ignoriert, daß er überhaupt existiert.

Der zentrale Punkt ist jedoch, daß jeder für den Computer am Ende relevante Timestamp in absoluten Sekunden, nicht jedoch in relativen musikalischen PPQ vorliegen muß. Wenn ein Event in den Buffern darauf wartet, an die Hardware geschickt zu werden, muß bekannt sein, zu welcher (Milli- oder gar Nano-)Sekunde dies zu geschehen hat, und das gilt für MIDI-Hardware ebenso wie für die fürs Audio zuständige Soundkarte. Für den User hingegen spielt diese Information nur in bestimmten Sondersituationen eine Rolle (wenn er Geräuscheffekte zu einem Film synchronisiert, z.B. - ich komme darauf noch zurück). Er will Material auf dem Bildschirm sehen, das sich an musikalischen Positionen orientiert, an Taktgrenzen, Beats, oder dem musikalischen Puls. (Fast) jede Darstellung muß sich auf ein PPQ-Grid beziehen. Nur dann kann man vernünftig sowohl Rhythmik wie auch Formverläufe editieren.

Die Umrechnung zwischen musikalischer und objektiver Time ist für einen Computer nur dann möglich, wenn auch die musikalische Time gleichförmig ist. Dazu bedarf es bei jeder Aufnahme am Computer eines Clicks (=Metronoms), der dem Musiker diktiert, wie er zu spielen hat, um diese Gleichförmigkeit zu produzieren. Dies gilt keineswegs nur für den Keyboarder, der MIDI aufnimmt. Wenn man seine Performance mit Aufnahmen von akustischen Instrumenten vermischt, ist es unabdingbare Voraussetzung, daß auch alle anderen zum Click gespielt haben. Selbst bei den allermeisten Produktionen, die ausschließlich Audio-Aufnahmen verwenden, kann man hinterher ein Metronom mitlaufen lassen, ohne dessen Schlagzahl im Verlauf auch nur einmal korrigieren zu müssen.

Es gab (und gibt?) in der Forschung einige Bemühungen, auch aus live gespieltem, unquantisierten Material nachträglich die „musikalische Time” herauszuziehen. Ich habe mich Ende der 90er mit dem Thema beschäftigt, bin aber rasch an meinen unzulänglichen mathematischen Kenntnissen gescheitert. Seitdem scheint sich wenig getan zu haben - zumindest gibt es jenseits der akademischen Forschung keine allgemein zugänglichen Lösungen. Mir ist jedenfalls kein Programm bekannt, mit dem man Material mit Timestamps in objektiven Sekunden nachträglich mit PPQ-basierter musikalischer Zeit versehen kann.