Außermusikalische Einflüsse in
Komposition und Ästhetik elektroakustischer Musik
Zu allererst sollten zwei Arten von Erfindungen unterschieden werden: Entwicklungen, die spezifisch für eine musikalische Anwendung entwickelt worden sind und solche, die aus einem außermusikalischen Kontext realisiert worden sind, dann aber z.B. durch Musiker für die elektroakustischen Musik nutzbar gemacht worden sind, als Seiteneffekt sozusagen. Für die daraus entstandene Musik macht es keinen Unterschied, wie eine solche Neuentwicklung in den Kontext der Klangerzeugung oder Komposition gelangte. Es erläutert aber die Situation der Zeit: gab es ein bestimmtes ästhetisches Ziel, auf das Ingenieure und Komponisten hingearbeitet haben, oder ergab sich das Ziel erst aus dem plötzlichen Vorhandensein der Erfindung?
Die frühen elektronischen Instrumente wurden eindeutig für
die musikalische Anwendung entwickelt: das Theremin und das Trautonium
z.B.. Diese Instrumente initiierten die Idee der Klangsynthese, Klanggestaltung
und Klangveränderung, die auch in der instrumentalen Musik in der
Luft lag (Schönbergs Klangfarbenmelodie) und in den 50 er Jahren zielgerichtet
weiterverfolgt wurde. Waren die Instrument selber für die spezifisch
musikalische Anwendung entwickelt, so entstammen die Entwickler und deren
technischen Mittel vor allem aus dem Umfeld der technischen Kommunikation.
In diesem Umfeld entwickelte sich eine innovative Szene der elektronischen
Musik, als einer Musik die ausschließlich mit künstlich erzeugten
Klängen umging. Die Klänge wurden aus einzelnen Klangbestandteilen
wie Sinustönen oder anderen Klangwellen zusammengestellt und bildeten
eine völlig neue Weise der Klangkomposition.
Die Idee, Klänge mit Synthese Techniken zu erzeugen faszinierte
die instrumentalen Komponisten dieser Zeit sehr. Mit dessen Hilfe konnten
sie Klänge in einer Präzision und Dimension gestalten, die mit
akustischen Instrumenten unmöglich war. Somit wurden sowohl eine instrumentale
Ästhetik, als auch kompositorische Ideen und Techniken auf die synthetischen
Klänge angewandt. Dies ist unter anderem ein Aspekt, der die mit Klangsynthese
arbeitende elektronische Musik doch sehr von der Musik unterschied, die
als Klangmaterial existierende Klänge benutzte und diese mit den unterschiedlichen
Techniken manipulierte - der später sogenannte Musique Concréte.
Komponisten, die im Umfeld dieser Idee arbeiteten konzentrierten sich viel
mehr auf die Veränderung eines existierenden Klangobjektes und dessen
vorgegebener zeitlichen Struktur. Der Komponist reagiert auf die vorgegebene
Charaktereigenschaft des Klangobjektes, während er in der synthetisierten
Musik mehr die selbst geschaffenen kompositorischen Ideen einer der instrumentalen
Welt entstammenden Ästhetik realisierte. Anahand dieser beiden Richtungen
wird schon deutlich, inwieweit sich die Produktionssituation auf die Ausbildung
einer spezifischen Ästhetik auswirkt.
Beide musikalische Stile entstanden jedoch im Kontext der Rundfunkanstalten.
Sie wurden erst durch die Erfindung der Tonbandmaschine und deren Verbreitung
nach dem zweiten Weltkrieg ermöglicht. Waren die Tonbandgeräte
zur Aufnahme von Instrumenten und Stimmen entwickelt worden, so adaptierten
die Komponisten diese schnell für ihre Zwecke und gestalteten sogar
eine Kunstform, die sich spezifisch mit den Möglichkeiten dieses Speichermediums
auseinandersetzte: die Tonbandmusik. Die Schneidetechniken, die ursprünglich
zur Bearbeitung von Rundfunksendematerial entwickelt worden sind, wurden
ein Gegenstand kompositorischen Schaffens. Nicht nur, daß sie durch
die Komponisten elektroakustischer Musik adaptiert wurden, darüber
hinaus sind diese Techniken weiterentwickelt und als Kompositionstechnik
eingesetzt worden. Es war einfach, komplexe, sich zeitlich schnell verändernde
Strukturen, aus vielen Bandschnipseln zusammenzuschneiden. Dadurch entstand
ein Stil von diskontinuierlichen in ihrer Kürze und Geschwindigkeit
kaum mehr wahrnehmbaren kompositorischen Zeiteinheiten. Eine Musik die
es bisher nicht gegeben hat, war mit Hilfe des Tonbandes entstanden. Zusätzlich
zu der Montage kleinster Zeiteinheiten, entwickelte sich ein neuer formaler
Stil, der ebenfalls eng an die Möglichkeiten des Mediums Tonband geknüpft
ist: die Collage. Hier läßt sich auch auf die ähnliche
Entwicklung des Filmes verweisen, die teilweise auf dem Hintergrund eines
"Bandes" als Speichermedium beruht.
Im Kontext der Anwendung von Tonbändern zur Strukturierung der
Musik sollte eine Ereignis erwähnt werden, das schon früher stattgefunden
hatte. Die Erfindung der "Loop" geschah längst bevor das Magnetband
das Licht der Welt erblickt hatte. Wird bei einer Schallplatte eine Rille
zielgerichtet beschädigt, so war es möglich, die Wiederholung
eines bestimmten Klangabschnittes in identischer Weise beliebig häufig
zu erreichen. Dieser Effekt wurde lange vor dem zweiten Weltkrieg von Pierre
Schaeffer verwendet und stellt vielleicht eine der frühen Beispiele
der selbständig, durch eine Maschine erzeugten Klangstrukturierung
dar. Von da an bekam die Wiederholung eine neue Bedeutung als musikalisch
expressives Mittel. War die Repetition bei Scarlatti das Erfüllen
einer Art Echo Struktur, oder in der Klassik eine Art Lernhilfe um das
Thema zu begreifen, so ist die Wiederholung mit der Loop eine Art Selbstzweck.
Vielfache Wiederholungen kamen bisher nur in der Variationsform vor. Hier
wurde der Wiederholung des Motivs jedoch eine ständige Verwandlung
hinzugesetzt. Aber die Loop stellt eine identische Wiederholung des Materials
dar, die die Verwandlung oder Variatenbildung in den Prozess der Wahrnehmung
verlagert. Das gleiche Material, wiederholt dargeboten, verändert
seine Eigenschaften kontinuierlich, was sich beim ständigen Wiederholen
des selben Wortes leicht nachprüfen läßt.
Als frühes Beispiel dieser Wiederholungsidee läßt sich
Erik Saties Werk "Vexations" nennen. In dieser Komposition wird ein vollständiges
"Stück", das in sich selbst schon Wiederholungen enthält über
einen Zeitraum von ca 20 Stunden "geloopt" - mit anderen Worten wiederholt.
Während der historischen Entwicklung wurde die Loop eine allgemeine
Strukturierungsmethode von Klang aber auch von visuellen Ereignissen. Vom
Minimalismus, in seiner formalen Idee, bis zum Sampling, aber auch im Tanz
(siehe Pina Bauschs Choreographie "Cafe Mueller") ist die Loop immer noch
eine sehr aktuelle Idee - entstanden aus einer kaputten Schallplatte.
Während die elektroakustische Musik in Europa vor allem in Köln
und Paris entwickelt wurde erschienen die Computer in Amerika im Bereich
der Musik. Am Anfang konnte man nicht unbedingt von dem sprechen, was wir
heute Computer nennen. Der Begriff komplexe Rechenmaschine passt eher auf
das, was sich hinter den Computern der damaligen Zeit verbarg. Deswegen
ist es bewundernswert, wieviel Phantasie, Idealismus und Energie einige
Forscher in Ihre Ideen steckten, den Computer als Werkzeug zum Herstellen
von Musik zu benutzen. Ein Chemiker aus der Industrie, Lejaren Hiller,
unternahm das zur damaligen Zeit sicherlich als verrückt bezeichnete
Unterfangen, ein Stück Musik mit Hilfe eines Computer, des Illiac
Computers zu komponieren. Man muß sich vor Augen führen, daß
Programmieren zu damaliger Zeit hieß, aus einer Reihe von 0 und 1,
also dem binären Code, einen sinnvollen Befehlssatz zu schreiben.
Um 1956, also 3 Jahre bevor Stockhausen Kontakte komponierte, programmierte
Hiller den Raumausfüllenden Computer, um mit den Ergebnissen des Rechenprozesses
eine Komposition, die Illiac Suite für Streichquartett zu schreiben.
Diese binären Strukturen komponierten das Streichquartett zur gleichen
Zeit, als der Iannis Xenakis sein Orchesterstück "Metastasis" mit
Hilfe von stochastischen Formeln auf Papier errechnete. Interessant ist
hierbei der Aspekt, dass beide Komponisten einem nicht musikalischen Hintergrund
entstammen und diese "nichtmusikalischen" Kenntnisse auf den Bereich der
Musik angewandt haben. Sicherlich wäre diese Schritt ohne die Entwicklung
der seriellen Kompositionstechnik, die Lautstärke, Klangfarbe, Tonhöhe
und Artikulation aus einzelnen Zahlenreihen und deren Manipulationen separat
zu bestimmen, nicht denkbar gewesen. Xenakis und Hiller entwickelten somit,
wie auch G.M. Koenig eine neue Ästhetik, die später algorithmische
Komposition genannt wurde. Man könnte das Charakteristische dieser
Ästhetik damit beschreiben, daß die Musik als ein Resultat der
Anwendung einiger Formeln entsteht, wobei die Anwendung von Zufall bei
allen eine wichtige Rolle spielte (siehe auch Koenigs Ascot Variationen)
aber nicht unbedingt spielen muß. Hier wurden die Wurzeln für
das Komponieren mit Hilfe des Computers und für die Integration des
Zufalls als ein hochdifferenziertes generatives Mittel gelegt.
Werden diese Fakten bewertet, so liegt der Eindruck nahe, daß
besonders Komponisten, aus einem nichtmusikalischen Kontext enstammend,
der Musik revolutionäre Impulse geben können. Es läßt
sich weiter spekulieren, daß Komponisten aus einem strikt instrumental
musikalischen Background eher dazu neigen, Technologien in ihr vorhandenes
ästhetisches Konzept zu integrieren anstatt ein neues Konzept zu entwickeln.
Außerdem würden sich instrumentale Komponisten nicht als Gestalter
neuer kompositorischer Werkzeuge sondern eher als Gestalter einer neuen
Ästhetik verstehen, während der Hauptaugenmerk vieler elektroakustischer
Komponisten eher die Entwicklung von software Tools darstellt. Hier läßt
sich ein signifikanter Unterschied in der Attitüde der Komponisten
elektroakustischer und instrumentaler Musik feststellen, der sich auch
in der unterschiedlichen musikalischen Sprache auswirkt.
Neben den Radio Stationen als unfreiwilliger Initiator traten die Telefongesellschaften
in Amerika als Unterstützer einer für die elektroakustische Musik
bahnbrechenden Erfindungen auf. 1957 arbeitete Max Mathews in den Bell
Laboratories an der Idee, ein Computerprogramm für die Erzeugung von
Klängen zu entwickeln. Dies ist vor dem Hintergrund interessant, daß
es zu dieser Zeit noch nichtmals ein Gerät gab, um Zahlen in Stromspannung
umzuwandeln. Mit anderen Worten gab es am Anfang der Entwicklung keine
Möglichkeit errechnete Klänge überhaupt anzuhören.
Wie illusorisch muß dieses Vorhaben auf einige Leute gewirkt haben.
Aber wenn Mathews die Entwicklung seiner Ideen auch gestattet wurde, so
hatte niemand eine Ahnung davon, wie bahnbrechend diese Erfindung für
die Klangwelt des 20ten Jahrhunderts werden würde. Mathews Idee und
die Konsequenzen dieser Idee veränderten die Musik kontinuierlich
und konsequent hin zu einer Welt, in der der Computer bei geschätzten
95 % aller klingenden Musik seine Hand im Spiel hatte. Es wurden aber nicht
nur quantitative Phänomene beeinflußt. Der Einsatz des Computers
beeinflußt die Musik auch qualitative. Am offensichtlichsten ist
diese Beeinflussung in der Entwicklung einer poly stilistischen Kultur
festzumachen. Die europäischen Komponisten im Bereich der elektroakustischen
Musik entstammten größtenteils der ästhetisch eng formierten
Gruppe der instrumentalen Komponisten, also aus dem akademischen Bereich.
Dies ist sicherlich eine Folge der Entscheidungen der studiobesitzenden
Rundfunkstationen zu sehen, die instrumentale Komponisten als einzig kompetente
Personengruppe für die Realisation elektroakustischer Kompositionen
ansah. Trotz der unterschiedlichen Entwicklung in Paris entwickelte sich
jedoch ein den seriellen Ideen und instrumentalem Denken folgender Stil.
Dieses stilistische Paradigma änderte sich spätestens mit der
Einführung des legendären Frequenz Modulations Synthesizers DX7
von Yamaha, das mit der von Mathews entwickelten Software implementiert
worden war. Der DX7 stellte ein für viele unterschiedliche Komponisten
erreichbares Produktionsmittel dar, daß die Präferierung ästhetischer
Zirkel auflöste.
Die Einführung preiswerter Computer machte die Produktionsmittel
elektroakustischer Musik einem großen Komponistenkreis zugänglich.
Der Computer ermöglichte nun die Verfügbarkeit aller Synthese-
und Klangbearbeitungsmittel durch die Implementierung in die von Mathews
entwickelte Software und deren Nachfolger wie Csound, Cmusic, Common Lisp
Music und andere. Als Konsequenz dieser Entwicklung verwischte die Grenze
zwischen akademischer- und Popmusik zusehends. Komponisten von Tanzmusik
wie "Techno" benutzen die gleichen Tools für die Klangerzeugung und
-bearbeitung wie akademische Komponisten. Die Klänge und die expressive
Sprache der Musik im kommerziellen Bereich wird komplexer, während
Komponisten aus dem akademischen instrumentalen und elektroakustischen
Bereich ihre Elfenbeintürme verlassen müssen. Wenn auch die Extrempositionen
beibehalten werden, so füllt sich jedoch der Zwischenraum zwischen
diesen Extremen mit einer Musik, die weniger Probleme mit ihrer Identität
zu haben scheint, als die der akademischen Musik.
Der zweite wichtige Input der Telefongesellschaften war der Phase Vocoder. Er wurde als eine Kompressionsmethode zur Datenreduktion von Klang 1966 von Flanagan und Gold in den Bell Telephone Laboratorien entwickelt. Anstatt die Daten zu reduzieren, vergrößerte sich die Datenmenge bei Anwendung des Phase Vocoders. Deshalb wurde es für Bell ein Fehlschlag, für die elektroakustische Musik jedoch eine brillantes Klangmodifikationsmittel. Der Phase Vocoder analysiert einen Klang und speichert die Analysedaten. Diese können mit den unterschiedlichsten Methoden z.B. gespreizt, verlängert kurz manipuliert werden. Nach dem Bearbeiten der Analysedaten konnte der ursprüngliche Klang mit Hilfe vieler Sinustongeneratoren wieder neue synthetisiert werden und enthält nun die Veränderungen. Spektrale Musik, wie sie von Gerard Grisey oder Tristan Murail und vielen anderen instrumentalen oder elektroakustischen Komponisten in Paris entwickelt wurde, wäre ohne den Phase Vocoder nicht denkbar. Der Phase Vocoder stellte das Verbindungsglied zwischen der Klangsynthese, der "elektronischen Musik" und Klangbeabeitung her, wie sie in der "Musique Concrete" Anwendung fand. Einer der Paradigmen der elektroakustischen Musik, entweder einen Klang zu synthetisieren oder einen existierenden Klang zu verändern, verschwand. Zusätzlich entwickelten die Komponisten eine Reihe neuer Klangveränderungsideen, wie die des Klang Morphens, ein Klang moduliert in einen anderen hinein. Diese neue Ideen gaben der Arbeit mit existierenden Klängen neue Impulse.
Die späten 60er und 70er Jahre brachten einen neuen musikalischen
Typ hervor, der vielleicht mit dem Begriff "Umgebungs Musik" charakterisiert
werden kann. Erik Satie nannte diese Idee in etwa "die Musik als Möblierung",
"Musique de ameublement". Es handelt sich dabei um Musik, die nicht auf
die dramaturgische Gestaltung der musikalischen Form fokusiert ist. Diese
Musik arbeitet deshalb ohne Beginn und Ende. Aus diesem Grunde sind vorher
aufgezeichnete Tonbänder nicht unbedingt geeignet, während sich
Synthesizer besser einsetzen lassen.
Ein Boom kam in die Entwicklung solcher, heute "Installationen" genannter
Formen, als die aus der Kommunikations- und Unterhaltungsindustrie abfallenden
kleinen Klangerzeuger verfügbar wurden. Diese bestanden aus Klingeln
und sonstigen Geräuschmachern, sowie aus Photozellen aber auch aus
kleinen Samplechips, die Klänge aufnehmen und in sprachverständlicher
Qualität wiedergeben konnten. Hierbei ist anzumerken, daß die
Installationen aus dem Bereich der visuellen Künste als Weiterentwicklung
der Fluxus Happenings entstammen. Diese Umgebungskunst gab dem Klang einen
neuen Kontext und erzeugte eine ästhetische Kathegorie der Klangkunst.
Die Einführung von Midi und Multimedia gab dieser Kunst eine neue,
auch recht populäre Richtung. Die klassischen Installationen vereinten
zumeist visuelle und akustische Aspekte miteinander. Als Konsequenz dieses
Ansatzes wurde die Kommunikationssprache Midi zur Steuerung der Interaktion
zwischen den visuellen und akustischen Elementen eingesetzt. Dieses hatte
die Vernetzung von visuellen und akustischen Elemente innerhalb der Installation
zur Folge. Der Klang lief nicht mehr parallel unbeeinflußt vom visuellen
Geschehen und war auch nicht an eine primitive Koppelung zu visuellen Reizen,
wie es im Video der Fall ist, gebunden. Innerhalb einer solch komplexer
Umgebung konnten akustische und visuelle Elemente agieren und reagieren,
kurz interagieren.
Die 70er Jahre gestalteten die Grundsätze der live Elektronischen
Musik mit der Einführung von Kommunikationsmöglichkeiten zwischen
den einzelnen elektronischen Geräten. Die neuen Spannungsgesteuerten
Synthesizer ließen sich in allen Parametern kontrollieren. Früher
mußte ein Generator mühsam umgeschaltet werden, um eine andere
Frequenz zu erzeugen. Transpositionen wurden auch mit Tonbandgeräten
hergestellt. Aber die komplexe und schnelle Modifikation vieler Parameter
war erst mit spannungsgesteuerten Synthesizern möglich. Die Weiterentwicklung
der Kommunikationsidee stellt die schon erwähnte digitale Sprache
Midi dar. Der DX7 Synthesizer war ein mit Midi steuerbarer Synthesizer.
Nun wurde es möglich mit Hilfe von Sequenzern, einer Art Tonbandmaschine
für Midi Daten, durchgeführte Klangveränderung und -varianten
live zu benutzen.
Mit Hilfe von Midi wurden die teuren spezifischen Systeme überflüssig.
Komponisten elektroakustischer Musik konnten sich teilweise aus der kommerziellen
Musikindustrie mit Instrumenten versorgen und diese durch ihren spezifischen
Einsatz zur Durchführung ihrer musikalischen Ideen bringen. Die Klänge
wurde während dieser Entwicklung reicher und komplexer. Der Bereich
der Live elektronik konnte sich auf Aspekte der differenzierten Kommunikation
konzentrieren.
Neben der erreichbaren Präzision und einfachen Steuerung zeigte
Midi den Komponisten aber auch einige Grenzen auf, die kaum zu überwinden
waren. Die Transferrate der Daten war so niedrig, daß sich befriedigende
Klangsynthese nicht machen ließ. Die Repräsentation eines Klangereignisses
in der Sprache ware inflexible. Da Midi einen statisch festgelegten allzu
grob gerasterten Tonhöhenset mit nur 127 Stufen enthält, entstanden
in dieser Zeit z.B. eine Menge von Stücken in temperierter Stimmung.
Kurz gesagt war Midi auf die Bedürfnisse in der Pop Musik ausgerichtet.
Der anfangs revolutionäre Aspekt, daß Midi Klang und Klangsteuerung
voneinander trennte, war in der elektroakustischen Musik neu. Man konnte
eine Struktur mit sehr geringen Datenmengen abspeichern und den Klang im
Nachhinein edieren. Dieses Konzept entpuppte sich jedoch als ein allzu
instrumentales Denken, über das die eigentliche elektroakustische
Musik schon weit hinaus war: der Klang besteht aus einer Note in der Partitur
und einem später ausgeführten Ton des Instrumentalisten.
Der Fortschritt und die Vorteile, die Midi mit sich brachte mußten
mit einem Rückschritt in instrumentale Konzeptionen bezahlt werden.
Es stabilisierte das Denken der instrumentalen Musik, die von dem Einzelton
als kleinster Einheit ausging und in einer Partitur darstellbar ist. Aber
gleichzeitig brachte Midi auch die Möglichkeit mit sich, zwischen
akustischem Instrument und elektroakustischer Klangsynthese zu vermitteln.
In den späten 80er Jahren begannen Komponisten zusehends Midi zu Erstellung
von Partituren, aber auch als Ausgabemodus von Algorithmen zu benutzen.
Die algorithmischen Strukturen wurden von Komponisten dazu benutzt instrumentale
Partituren zu erstellen. Somit war Midi zur Fortsetzung der Ideen von Xenakis/Hiller/Koenig
nützlich geworden, eine Brücke zwischen digitaler und akustischer
Welt herzustellen.
Die Erfindung der schon erwähnten Frequenzmodulation war ein relativ deutlich wahrnehmbares Phänomen in der Musik. Das Phänomen der Frequenzmodulation selbst war schon lange bekannt und in der Rundfunkübertragung und zur Speicherung auf Tonbändern benutzt worden. Die Anwendung der Frequenz Modulation für die Klangsynthese, sowie die Modifikationen der Gesetzmäßigkeit auf die digitale FM ließen sie zu einer die Musik bestimmenden Erfindung werden. Die FM erlaubte es nicht nur zielgerichtet bestimmte Spektren mit Hilfe weniger Klanggeneratoren zu erzeugen, sondern auch noch diese mit wenigen Parametern zu modifizieren. Deswegen veränderten sich auch die Klangphänomene seit der Verbreitung der FM signifikant. Der sogenannte "Klangteppich" der sich andauernd in seiner Charakteristik ändert wurde seit Chownings Komposition "Stria" ebenso zu einem immer wieder auftretenden Phänomen wie unzählige Marimbaphon-, Vibraphon-, Glocken- und Percussionsklänge.
Die Einführung preiswerter Sampler in den 80er Jahren begründete
eine andere Revolution. Der Grad der Veränderung ließ sich allerdings
nicht so sehr in der Tonband Musik feststellen. Dort waren Sampling und
Klangmodifikation bereits in sehr differenzierter Weise benutzt worden,
seit Pierre Schaeffer begonnen hatte, das Tonband als ein Instrument anzuwenden.
Der Sampler war eine Revolution in der Live Musik aber auch in der Pop
Musik. Mit Hilfe des Samplers wurde es möglich, Klänge mit ausgetüftelter
Looping Techniken zu verlängern, den Klang zu filtern und auch die
Hüllkurve, also den Lautstärkeverlauf zu verändern. Die
Loop begann demnach Einzug in die Live Musik zu halten. Der Sampler war
die ausführende Elektronik und Midi die Steuersprache. In diesem Zusammenhang
sollte das vom Pariser Ircam entwickelte Max erwähnt werden. Eine
Variante arbeitet ausschließlich auf Midi Basis und war Anfang der
90 Jahre verfügbar. Es enthielt als eine der ersten Programmierenvironments
eine symbolische Prgrammiersprache, die es ermöglichte komplexe Programme
in einer relativ einfachen Art und Weise zu gestalten. Damit öffnete
Max den Bereich des Programmierens mit einem aus der Informatik stammenden
Ansatz den Komponisten, die sich nicht allzusehr auf die Computerwelt mit
ihrer eigenen Logik einlassen wollten.
Vor der Einführung von Max wurden die meisten Midi Strukturen
aus einem Sequenzer ausgelesen, oder durch ein Keyboard ausgelöst.
Es war kaum ein Aspekt von Interaktivität erkennbar. Eine niedergedrückte
Taste war der Trigger für einen Sampler oder Synthesizer einen Ton
zu erzeugen. Max ermöglichte den Komponisten ein interaktives Patch
zu gestalten, bei der die unterschiedlichsten Controler miteinander kommunizierten.
Ein Tonhöhenfolger konnte z.B. die Töne eines Instrumentes analysieren
und bei einem bestimmten Ton eine Klangfarbe eines Synthesizers in Abhängigkeit
von der Lautstärke des analysierten Tones umschalten.
Den Anfang fand Max innerhalb der Ircam Signal Processing Workstation
(ISPW). Das ISPW war eines der ersten portablen interaktiven Klangsynthese/Analyse/Abspielgeräte.
Sozusagen ein kleines Klanguniversum, das das wichtigste an Klangmanipulationstechniken
interaktiv kontrollierbar machte. Seit der Einführung des ISPW veränderte
sich die Live elektroakustische Musik signifikant hin zu einem instrumental/elektronisch
hybriden Medium. Es ermöglichte den Komponisten zum ersten mal, den
Klang von akustischen Instrumenten in Signalverarbeitende Operationen mit
einzubeziehen. Und das war gleichzeit mit der Erzeugung des Klanges möglich.
Instrumentale Klänge konnte in komplexester Art und Weise manipuliert
werden. Im Gegensatz zum Opcode Max war hier bewußt auf die Anwendung
der mit allzu vielen Limitationen behafteten Sprache Midi zugunsten eines
eigenen Protokolls verzichtet worden.
Max ermöglichte die Verbindung instrumentaler Kompositionstechnik
mit der der elektroakustischen, wobei keines der beiden Bereiche benachteiligt
wurden. Max war aber nicht nur für eine Menge interaktiver Kompositionen
verantwortlich. Es wurde zum Rückrat der multimedialen Installationsszene
mit ihren immer komplexer werdenden Controlern. Zusammen mit Midi ist Max
gegenwärtig sicherlich eines der in der elektroakustischen Szene am
meisten benutzten Environments, das Klang und Bild zusammenzubringen im
Stand ist.
Und last but not least: Wer hätte gedacht, daß Newton´s
Gesetze einmal für die Gestaltung von Musik wichtig werden könnten?
Diese Gesetze und die Forschungsergebnisse der Teilchenphysik wurden
nicht mit der Idee entwickelt, sie für die Realisierung von Klängen
einzusetzen. Aber in dem Augenblick, in dem die Ergebnisse dazu benutzt
werden, um künstliche Animationen der Wirklichkeit herzustellen, wird
schon eine Verbindung zur Musik sichtbar. Newton´s Gesetze beschreiben
den Zusammenhang zwischen Bewegung, Geschwindigkeit, Gewicht und Kraft.
Mit dem Stichwort Bewegung sollte die Brücke zur Musik eigentlich
schon aufgeschlagen sein, da Klang ja bekanntlich das Ergebnis von Schwingungsprozessen
darstellt. Und die Ergebnisse der Teilchenphysik lassen erkennen, daß
es sich bei einem Objekt um ein aus einzelnen Elementen zusammengesetztes
Ganzes handelt. Diese Idee führt weiter zu der Erkenntnis, daß
man ein solches Objekt, z.B. eine Saite, aus diesen einzelnen Modulen zusammensetzen
kann, wie man Perlenkette zusammensetzen kann. Diese Idee, entwickelt in
Institut ACROE in Grenoble, läßt den Komponisten plötzlich
komplexe physikalische Objekte bauen, die noch nie vorher das Licht der
Welt erblickt haben. Würde also die erwähnte Perlenkette an einer
Saite befestigt und die frei schwingende Seite angezupft, so ließe
sich die Bewegung der einzelnen Kugeln aufzeichnen und schließlich
über einen Lautsprecher wiedergeben.
Dies ist aber nicht nur eine Revolution die noch unterwegs ist und
die Musik der Zukunft verändern kann. Ein Teil der instrumentalen
Klänge werden bereits mit physikalischen Modellen erzeugt. Gewachsen
aus einem mathematisch physikalischen Kontext werden es diese Instrumente
den Komponisten ermöglichen was bisher unmöglich war: eine Saite
aus Stein oder Holz, kleine schwingende Satelliten, die ihre Schwingungen
in eine große Membrane einspeisen, die gleichzeitig aus den unterschiedlichsten
Materialien bestehen kann.... Wir wissen nicht, wie das die Musik in der
Zukunft beeinflussen wird. Vielleicht überhaupt nicht, vielleicht
sehr stark, da sich eine ästhetische Revolution zumeist auf das Zusammenkommen
mehrerer Faktoren begründet. Die Gesellschaft muß zumindest
bereit für solche Veränderung sein, sonst haben die phantastischsten
Entwicklungen gegenwärtig keine Konsequenzen, wie das Beispiel Satie
zeigte.