© by Ludger Brümmer
ludi@zkm.de
http://www.folkwang.uni-essen.de/~ludi

Außermusikalische Einflüsse in
Komposition und Ästhetik elektroakustischer Musik


Die Entwicklung von Musik und dessen Ästhetik geschieht entlang sozialer, politischer, technologischer und anderer nicht musikalischer Ereignisse. Für gewöhnlich ist nicht ein einziger Fakt für die Veränderung eines musikalischen Stiles oder gar für die Entwicklung einer neuen ästhetischen Richtung verantwortlich. Stattdessen beeinflussen mehrere Aspekte gleichzeitig die musikalische Entwicklung. Abgesehen davon gibt es eine gewisse Selbstverständlichkeit der ästhetischen Weiterentwicklung, die die Kunst und ihre Ausdrucksmittel lebendig erhält. Aus diesem Grunde kann der Moment einer ästhetischen Veränderung nicht präzise festgelegt und ohne Zusammenhang zum historischen Kontext gesehen werden. Schaut man aber auf die Zeitpunkte von stilistischer Veränderung an, so läßt sich immerhin ein Zusammenhang zu bestimmten Ereignissen, wie die Einführung und Entwicklung technologischer Erfindungen herstellen, die zumindest einen Anstoss für die Veränderung gegeben haben.
Dieser Artikel will keinen vollständigen Überblick über die Entwicklung der elektroakustischen Musik und die ihnen zugrunde liegenden technischen Neuerungen geben. Würde dieses Unterfangen verfolgt, so fände der Text in circa eine bis zwei Büchern Platz. Einige Beispiele solcher Neuerungen, verteilt über unterschiedliche historische Zeitpunkte, werden ausreichen, um einen Eindruck davon zu geben, inwieweit sich solch außermusikalische Phänomene auf Stil und ästhetische Richtung auswirken können, auch wenn die Beschreibung derselben sich einige Male auf die technischen Möglichkeiten der Erfindungen beschränken muß.

Zu allererst sollten zwei Arten von Erfindungen unterschieden werden: Entwicklungen, die spezifisch für eine musikalische Anwendung entwickelt worden sind und solche, die aus einem außermusikalischen Kontext realisiert worden sind, dann aber z.B. durch Musiker für die elektroakustischen Musik nutzbar gemacht worden sind, als Seiteneffekt sozusagen. Für die daraus entstandene Musik macht es keinen Unterschied, wie eine solche Neuentwicklung in den Kontext der Klangerzeugung oder Komposition gelangte. Es erläutert aber die Situation der Zeit: gab es ein bestimmtes ästhetisches Ziel, auf das Ingenieure und Komponisten hingearbeitet haben, oder ergab sich das Ziel erst aus dem plötzlichen Vorhandensein der Erfindung?

Die frühen elektronischen Instrumente wurden eindeutig für die musikalische Anwendung entwickelt: das Theremin und das Trautonium z.B.. Diese Instrumente initiierten die Idee der Klangsynthese, Klanggestaltung und Klangveränderung, die auch in der instrumentalen Musik in der Luft lag (Schönbergs Klangfarbenmelodie) und in den 50 er Jahren zielgerichtet weiterverfolgt wurde. Waren die Instrument selber für die spezifisch musikalische Anwendung entwickelt, so entstammen die Entwickler und deren technischen Mittel vor allem aus dem Umfeld der technischen Kommunikation. In diesem Umfeld entwickelte sich eine innovative Szene der elektronischen Musik, als einer Musik die ausschließlich mit künstlich erzeugten Klängen umging. Die Klänge wurden aus einzelnen Klangbestandteilen wie Sinustönen oder anderen Klangwellen zusammengestellt und bildeten eine völlig neue Weise der Klangkomposition.
Die Idee, Klänge mit Synthese Techniken zu erzeugen faszinierte die instrumentalen Komponisten dieser Zeit sehr. Mit dessen Hilfe konnten sie Klänge in einer Präzision und Dimension gestalten, die mit akustischen Instrumenten unmöglich war. Somit wurden sowohl eine instrumentale Ästhetik, als auch kompositorische Ideen und Techniken auf die synthetischen Klänge angewandt. Dies ist unter anderem ein Aspekt, der die mit Klangsynthese arbeitende elektronische Musik doch sehr von der Musik unterschied, die als Klangmaterial existierende Klänge benutzte und diese mit den unterschiedlichen Techniken manipulierte - der später sogenannte Musique Concréte. Komponisten, die im Umfeld dieser Idee arbeiteten konzentrierten sich viel mehr auf die Veränderung eines existierenden Klangobjektes und dessen vorgegebener zeitlichen Struktur. Der Komponist reagiert auf die vorgegebene Charaktereigenschaft des Klangobjektes, während er in der synthetisierten Musik mehr die selbst geschaffenen kompositorischen Ideen einer der instrumentalen Welt entstammenden Ästhetik realisierte. Anahand dieser beiden Richtungen wird schon deutlich, inwieweit sich die Produktionssituation auf die Ausbildung einer spezifischen Ästhetik auswirkt.
Beide musikalische Stile entstanden jedoch im Kontext der Rundfunkanstalten. Sie wurden erst durch die Erfindung der Tonbandmaschine und deren Verbreitung nach dem zweiten Weltkrieg ermöglicht. Waren die Tonbandgeräte zur Aufnahme von Instrumenten und Stimmen entwickelt worden, so adaptierten die Komponisten diese schnell für ihre Zwecke und gestalteten sogar eine Kunstform, die sich spezifisch mit den Möglichkeiten dieses Speichermediums auseinandersetzte: die Tonbandmusik. Die Schneidetechniken, die ursprünglich zur Bearbeitung von Rundfunksendematerial entwickelt worden sind, wurden ein Gegenstand kompositorischen Schaffens. Nicht nur, daß sie durch die Komponisten elektroakustischer Musik adaptiert wurden, darüber hinaus sind diese Techniken weiterentwickelt und als Kompositionstechnik eingesetzt worden. Es war einfach, komplexe, sich zeitlich schnell verändernde Strukturen, aus vielen Bandschnipseln zusammenzuschneiden. Dadurch entstand ein Stil von diskontinuierlichen in ihrer Kürze und Geschwindigkeit kaum mehr wahrnehmbaren kompositorischen Zeiteinheiten. Eine Musik die es bisher nicht gegeben hat, war mit Hilfe des Tonbandes entstanden. Zusätzlich zu der Montage kleinster Zeiteinheiten, entwickelte sich ein neuer formaler Stil, der ebenfalls eng an die Möglichkeiten des Mediums Tonband geknüpft ist: die Collage. Hier läßt sich auch auf die ähnliche Entwicklung des Filmes verweisen, die teilweise auf dem Hintergrund eines "Bandes" als Speichermedium beruht.

Im Kontext der Anwendung von Tonbändern zur Strukturierung der Musik sollte eine Ereignis erwähnt werden, das schon früher stattgefunden hatte.  Die Erfindung der "Loop" geschah längst bevor das Magnetband das Licht der Welt erblickt hatte. Wird bei einer Schallplatte eine Rille zielgerichtet beschädigt, so war es möglich, die Wiederholung eines bestimmten Klangabschnittes in identischer Weise beliebig häufig zu erreichen. Dieser Effekt wurde lange vor dem zweiten Weltkrieg von Pierre Schaeffer verwendet und stellt vielleicht eine der frühen Beispiele der selbständig, durch eine Maschine erzeugten Klangstrukturierung dar. Von da an bekam die Wiederholung eine neue Bedeutung als musikalisch expressives Mittel. War die Repetition bei Scarlatti das Erfüllen einer Art Echo Struktur, oder in der Klassik eine Art Lernhilfe um das Thema zu begreifen, so ist die Wiederholung mit der Loop eine Art Selbstzweck. Vielfache Wiederholungen kamen bisher nur in der Variationsform vor. Hier wurde der Wiederholung des Motivs jedoch eine ständige Verwandlung hinzugesetzt. Aber die Loop stellt eine identische Wiederholung des Materials dar, die die Verwandlung oder Variatenbildung in den Prozess der Wahrnehmung verlagert. Das gleiche Material, wiederholt dargeboten, verändert seine Eigenschaften kontinuierlich, was sich beim ständigen Wiederholen des selben Wortes leicht nachprüfen läßt.
Als frühes Beispiel dieser Wiederholungsidee läßt sich Erik Saties Werk "Vexations" nennen. In dieser Komposition wird ein vollständiges "Stück", das in sich selbst schon Wiederholungen enthält über einen Zeitraum von ca 20 Stunden "geloopt" - mit anderen Worten wiederholt. Während der historischen Entwicklung wurde die Loop eine allgemeine Strukturierungsmethode von Klang aber auch von visuellen Ereignissen. Vom Minimalismus, in seiner formalen Idee, bis zum Sampling, aber auch im Tanz (siehe Pina Bauschs Choreographie "Cafe Mueller") ist die Loop immer noch eine sehr aktuelle Idee - entstanden aus einer kaputten Schallplatte.

Während die elektroakustische Musik in Europa vor allem in Köln und Paris entwickelt wurde erschienen die Computer in Amerika im Bereich der Musik. Am Anfang konnte man nicht unbedingt von dem sprechen, was wir heute Computer nennen. Der Begriff komplexe Rechenmaschine passt eher auf das, was sich hinter den Computern der damaligen Zeit verbarg. Deswegen ist es bewundernswert, wieviel Phantasie, Idealismus und Energie einige Forscher in Ihre Ideen steckten, den Computer als Werkzeug zum Herstellen von Musik zu benutzen. Ein Chemiker aus der Industrie, Lejaren Hiller, unternahm das zur damaligen Zeit sicherlich als verrückt bezeichnete Unterfangen, ein Stück Musik mit Hilfe eines Computer, des Illiac Computers zu komponieren. Man muß sich vor Augen führen, daß Programmieren zu damaliger Zeit hieß, aus einer Reihe von 0 und 1, also dem binären Code, einen sinnvollen Befehlssatz zu schreiben. Um 1956, also 3 Jahre bevor Stockhausen Kontakte komponierte, programmierte Hiller den Raumausfüllenden Computer, um mit den Ergebnissen des Rechenprozesses eine Komposition, die Illiac Suite für Streichquartett zu schreiben. Diese binären Strukturen komponierten das Streichquartett zur gleichen Zeit, als der Iannis Xenakis sein Orchesterstück "Metastasis" mit Hilfe von stochastischen Formeln auf Papier errechnete. Interessant ist hierbei der Aspekt, dass beide Komponisten einem nicht musikalischen Hintergrund entstammen und diese "nichtmusikalischen" Kenntnisse auf den Bereich der Musik angewandt haben. Sicherlich wäre diese Schritt ohne die Entwicklung der seriellen Kompositionstechnik, die Lautstärke, Klangfarbe, Tonhöhe und Artikulation aus einzelnen Zahlenreihen und deren Manipulationen separat zu bestimmen, nicht denkbar gewesen. Xenakis und Hiller entwickelten somit, wie auch G.M. Koenig eine neue Ästhetik, die später algorithmische Komposition genannt wurde. Man könnte das Charakteristische dieser Ästhetik damit beschreiben, daß die Musik als ein Resultat der Anwendung einiger Formeln entsteht, wobei die Anwendung von Zufall bei allen eine wichtige Rolle spielte (siehe auch Koenigs Ascot Variationen) aber nicht unbedingt spielen muß. Hier wurden die Wurzeln für das Komponieren mit Hilfe des Computers und für die Integration des Zufalls als ein hochdifferenziertes generatives Mittel gelegt.
Werden diese Fakten bewertet, so liegt der Eindruck nahe, daß besonders Komponisten, aus einem nichtmusikalischen Kontext enstammend, der Musik revolutionäre Impulse geben können. Es läßt sich weiter spekulieren, daß Komponisten aus einem strikt instrumental musikalischen Background eher dazu neigen, Technologien in ihr vorhandenes ästhetisches Konzept zu integrieren anstatt ein neues Konzept zu entwickeln. Außerdem würden sich instrumentale Komponisten nicht als Gestalter neuer kompositorischer Werkzeuge sondern eher als Gestalter einer neuen Ästhetik verstehen, während der Hauptaugenmerk vieler elektroakustischer Komponisten eher die Entwicklung von software Tools darstellt. Hier läßt sich ein signifikanter Unterschied in der Attitüde der Komponisten elektroakustischer und instrumentaler Musik feststellen, der sich auch in der unterschiedlichen musikalischen Sprache auswirkt.

Neben den Radio Stationen als unfreiwilliger Initiator traten die Telefongesellschaften in Amerika als Unterstützer einer für die elektroakustische Musik bahnbrechenden Erfindungen auf. 1957 arbeitete Max Mathews in den Bell Laboratories an der Idee, ein Computerprogramm für die Erzeugung von Klängen zu entwickeln. Dies ist vor dem Hintergrund interessant, daß es zu dieser Zeit noch nichtmals ein Gerät gab, um Zahlen in Stromspannung umzuwandeln. Mit anderen Worten gab es am Anfang der Entwicklung keine Möglichkeit errechnete Klänge überhaupt anzuhören. Wie illusorisch muß dieses Vorhaben auf einige Leute gewirkt haben. Aber wenn Mathews die Entwicklung seiner Ideen auch gestattet wurde, so hatte niemand eine Ahnung davon, wie bahnbrechend diese Erfindung für die Klangwelt des 20ten Jahrhunderts werden würde. Mathews Idee und die Konsequenzen dieser Idee veränderten die Musik kontinuierlich und konsequent hin zu einer Welt, in der der Computer bei geschätzten 95 % aller klingenden Musik seine Hand im Spiel hatte. Es wurden aber nicht nur quantitative Phänomene beeinflußt. Der Einsatz des Computers beeinflußt die Musik auch qualitative. Am offensichtlichsten ist diese Beeinflussung in der Entwicklung einer poly stilistischen Kultur festzumachen. Die europäischen Komponisten im Bereich der elektroakustischen Musik entstammten größtenteils der ästhetisch eng formierten Gruppe der instrumentalen Komponisten, also aus dem akademischen Bereich. Dies ist sicherlich eine Folge der Entscheidungen der studiobesitzenden Rundfunkstationen zu sehen, die instrumentale Komponisten als einzig kompetente Personengruppe für die Realisation elektroakustischer Kompositionen ansah. Trotz der unterschiedlichen Entwicklung in Paris entwickelte sich jedoch ein den seriellen Ideen und instrumentalem Denken folgender Stil. Dieses stilistische Paradigma änderte sich spätestens mit der Einführung des legendären Frequenz Modulations Synthesizers DX7 von Yamaha, das mit der von Mathews entwickelten Software implementiert worden war. Der DX7 stellte ein für viele unterschiedliche Komponisten erreichbares Produktionsmittel dar, daß die Präferierung ästhetischer Zirkel auflöste.
Die Einführung preiswerter Computer machte die Produktionsmittel elektroakustischer Musik einem großen Komponistenkreis zugänglich. Der Computer ermöglichte nun die Verfügbarkeit aller Synthese- und Klangbearbeitungsmittel durch die Implementierung in die von Mathews entwickelte Software und deren Nachfolger wie Csound, Cmusic, Common Lisp Music und andere. Als Konsequenz dieser Entwicklung verwischte die Grenze zwischen akademischer- und Popmusik zusehends. Komponisten von Tanzmusik wie "Techno" benutzen die gleichen Tools für die Klangerzeugung und -bearbeitung wie akademische Komponisten. Die Klänge und die expressive Sprache der Musik im kommerziellen Bereich wird komplexer, während Komponisten aus dem akademischen instrumentalen und elektroakustischen Bereich ihre Elfenbeintürme verlassen müssen. Wenn auch die Extrempositionen beibehalten werden, so füllt sich jedoch der Zwischenraum zwischen diesen Extremen mit einer Musik, die weniger Probleme mit ihrer Identität zu haben scheint, als die der akademischen Musik.

Der zweite wichtige Input der Telefongesellschaften war der Phase Vocoder. Er wurde als eine Kompressionsmethode zur Datenreduktion von Klang 1966 von Flanagan und Gold in den Bell Telephone Laboratorien entwickelt. Anstatt die Daten zu reduzieren, vergrößerte sich die Datenmenge bei Anwendung des Phase Vocoders. Deshalb wurde es für Bell ein Fehlschlag, für die elektroakustische Musik jedoch eine brillantes Klangmodifikationsmittel. Der Phase Vocoder analysiert einen Klang und speichert die Analysedaten. Diese können mit den unterschiedlichsten Methoden z.B. gespreizt, verlängert kurz manipuliert werden. Nach dem Bearbeiten der Analysedaten konnte der ursprüngliche Klang mit Hilfe vieler Sinustongeneratoren wieder neue synthetisiert werden und enthält nun die Veränderungen. Spektrale Musik, wie sie von Gerard Grisey oder Tristan Murail und vielen anderen instrumentalen oder elektroakustischen Komponisten in Paris entwickelt wurde, wäre ohne den Phase Vocoder nicht denkbar. Der Phase Vocoder stellte das Verbindungsglied zwischen der Klangsynthese, der "elektronischen Musik" und Klangbeabeitung her, wie sie in der "Musique Concrete" Anwendung fand. Einer der Paradigmen der elektroakustischen Musik, entweder einen Klang zu synthetisieren oder einen existierenden Klang zu verändern, verschwand. Zusätzlich entwickelten die Komponisten eine Reihe neuer Klangveränderungsideen, wie die des Klang Morphens, ein Klang moduliert in einen anderen hinein. Diese neue Ideen gaben der Arbeit mit existierenden Klängen neue Impulse.

Die späten 60er und 70er Jahre brachten einen neuen musikalischen Typ hervor, der vielleicht mit dem Begriff "Umgebungs Musik" charakterisiert werden kann. Erik Satie nannte diese Idee in etwa "die Musik als Möblierung", "Musique de ameublement". Es handelt sich dabei um Musik, die nicht auf die dramaturgische Gestaltung der musikalischen Form fokusiert ist. Diese Musik arbeitet deshalb ohne Beginn und Ende. Aus diesem Grunde sind vorher aufgezeichnete Tonbänder nicht unbedingt geeignet, während sich Synthesizer besser einsetzen lassen.
Ein Boom kam in die Entwicklung solcher, heute "Installationen" genannter Formen, als die aus der Kommunikations- und Unterhaltungsindustrie abfallenden kleinen Klangerzeuger verfügbar wurden. Diese bestanden aus Klingeln und sonstigen Geräuschmachern, sowie aus Photozellen aber auch aus kleinen Samplechips, die Klänge aufnehmen und in sprachverständlicher Qualität wiedergeben konnten. Hierbei ist anzumerken, daß die Installationen aus dem Bereich der visuellen Künste als Weiterentwicklung der Fluxus Happenings entstammen. Diese Umgebungskunst gab dem Klang einen neuen Kontext und erzeugte eine ästhetische Kathegorie der Klangkunst.
Die Einführung von Midi und Multimedia gab dieser Kunst eine neue, auch recht populäre Richtung. Die klassischen Installationen vereinten zumeist visuelle und akustische Aspekte miteinander. Als Konsequenz dieses Ansatzes wurde die Kommunikationssprache Midi zur Steuerung der Interaktion zwischen den visuellen und akustischen Elementen eingesetzt. Dieses hatte die Vernetzung von visuellen und akustischen Elemente innerhalb der Installation zur Folge. Der Klang lief nicht mehr parallel unbeeinflußt vom visuellen Geschehen und war auch nicht an eine primitive Koppelung zu visuellen Reizen, wie es im Video der Fall ist, gebunden. Innerhalb einer solch komplexer Umgebung konnten akustische und visuelle Elemente agieren und reagieren, kurz interagieren.

Die 70er Jahre gestalteten die Grundsätze der live Elektronischen Musik mit der Einführung von Kommunikationsmöglichkeiten zwischen den einzelnen elektronischen Geräten. Die neuen Spannungsgesteuerten Synthesizer ließen sich in allen Parametern kontrollieren. Früher mußte ein Generator mühsam umgeschaltet werden, um eine andere Frequenz zu erzeugen. Transpositionen wurden auch mit Tonbandgeräten hergestellt. Aber die komplexe und schnelle Modifikation vieler Parameter war erst mit spannungsgesteuerten Synthesizern möglich. Die Weiterentwicklung der Kommunikationsidee stellt die schon erwähnte digitale Sprache Midi dar. Der DX7 Synthesizer war ein mit Midi steuerbarer Synthesizer. Nun wurde es möglich mit Hilfe von Sequenzern, einer Art Tonbandmaschine für Midi Daten, durchgeführte Klangveränderung und -varianten live zu benutzen.
Mit Hilfe von Midi wurden die teuren spezifischen Systeme überflüssig. Komponisten elektroakustischer Musik konnten sich teilweise aus der kommerziellen Musikindustrie mit Instrumenten versorgen und diese durch ihren spezifischen Einsatz zur Durchführung ihrer musikalischen Ideen bringen. Die Klänge wurde während dieser Entwicklung reicher und komplexer. Der Bereich der Live elektronik konnte sich auf Aspekte der differenzierten Kommunikation konzentrieren.

Neben der erreichbaren Präzision und einfachen Steuerung zeigte Midi den Komponisten aber auch einige Grenzen auf, die kaum zu überwinden waren. Die Transferrate der Daten war so niedrig, daß sich befriedigende Klangsynthese nicht machen ließ. Die Repräsentation eines Klangereignisses in der Sprache ware inflexible. Da Midi einen statisch festgelegten allzu grob gerasterten Tonhöhenset mit nur 127 Stufen enthält, entstanden in dieser Zeit z.B. eine Menge von Stücken in temperierter Stimmung. Kurz gesagt war Midi auf die Bedürfnisse in der Pop Musik ausgerichtet. Der anfangs revolutionäre Aspekt, daß Midi Klang und Klangsteuerung voneinander trennte, war in der elektroakustischen Musik neu. Man konnte eine Struktur mit sehr geringen Datenmengen abspeichern und den Klang im Nachhinein edieren. Dieses Konzept entpuppte sich jedoch als ein allzu instrumentales Denken, über das die eigentliche elektroakustische Musik schon weit hinaus war: der Klang besteht aus einer Note in der Partitur und einem später ausgeführten Ton des Instrumentalisten.
Der Fortschritt und die Vorteile, die Midi mit sich brachte mußten mit einem Rückschritt in instrumentale Konzeptionen bezahlt werden. Es stabilisierte das Denken der instrumentalen Musik, die von dem Einzelton als kleinster Einheit ausging und in einer Partitur darstellbar ist. Aber gleichzeitig brachte Midi auch die Möglichkeit mit sich, zwischen akustischem Instrument und elektroakustischer Klangsynthese zu vermitteln.  In den späten 80er Jahren begannen Komponisten zusehends Midi zu Erstellung von Partituren, aber auch als Ausgabemodus von Algorithmen zu benutzen. Die algorithmischen Strukturen wurden von Komponisten dazu benutzt instrumentale Partituren zu erstellen. Somit war Midi zur Fortsetzung der Ideen von Xenakis/Hiller/Koenig nützlich geworden, eine Brücke zwischen digitaler und akustischer Welt herzustellen.

Die Erfindung der schon erwähnten Frequenzmodulation war ein relativ deutlich wahrnehmbares Phänomen in der Musik. Das Phänomen der Frequenzmodulation selbst war schon lange bekannt und in der Rundfunkübertragung und zur Speicherung auf Tonbändern benutzt worden. Die Anwendung der Frequenz Modulation für die Klangsynthese, sowie die Modifikationen der Gesetzmäßigkeit auf die digitale FM ließen sie zu einer die Musik bestimmenden  Erfindung werden. Die FM erlaubte es nicht nur zielgerichtet bestimmte Spektren mit Hilfe weniger Klanggeneratoren zu erzeugen, sondern auch noch diese mit wenigen Parametern zu modifizieren. Deswegen veränderten sich auch die Klangphänomene seit der Verbreitung der FM signifikant. Der sogenannte "Klangteppich" der sich andauernd in seiner Charakteristik ändert wurde seit Chownings Komposition "Stria" ebenso zu einem immer wieder auftretenden Phänomen wie unzählige Marimbaphon-, Vibraphon-, Glocken- und Percussionsklänge.

Die Einführung preiswerter Sampler in den 80er Jahren begründete eine andere Revolution. Der Grad der Veränderung ließ sich allerdings nicht so sehr in der Tonband Musik feststellen. Dort waren Sampling und Klangmodifikation bereits in sehr differenzierter Weise benutzt worden, seit Pierre Schaeffer begonnen hatte, das Tonband als ein Instrument anzuwenden. Der Sampler war eine Revolution in der Live Musik aber auch in der Pop Musik. Mit Hilfe des Samplers wurde es möglich, Klänge mit ausgetüftelter Looping Techniken zu verlängern, den Klang zu filtern und auch die Hüllkurve, also den Lautstärkeverlauf zu verändern. Die Loop begann demnach Einzug in die Live Musik zu halten. Der Sampler war die ausführende Elektronik und Midi die Steuersprache. In diesem Zusammenhang sollte das vom Pariser Ircam entwickelte Max erwähnt werden. Eine Variante arbeitet ausschließlich auf Midi Basis und war Anfang der 90 Jahre verfügbar.  Es enthielt als eine der ersten Programmierenvironments eine symbolische Prgrammiersprache, die es ermöglichte komplexe Programme in einer relativ einfachen Art und Weise zu gestalten. Damit öffnete Max den Bereich des Programmierens mit einem aus der Informatik stammenden Ansatz den Komponisten, die sich nicht allzusehr auf die Computerwelt mit ihrer eigenen Logik einlassen wollten.
Vor der Einführung von Max wurden die meisten Midi Strukturen aus einem Sequenzer ausgelesen, oder durch ein Keyboard ausgelöst. Es war kaum ein Aspekt von Interaktivität erkennbar. Eine niedergedrückte Taste war der Trigger für einen Sampler oder Synthesizer einen Ton zu erzeugen. Max ermöglichte den Komponisten ein interaktives Patch zu gestalten, bei der die unterschiedlichsten Controler miteinander kommunizierten. Ein Tonhöhenfolger konnte z.B. die Töne eines Instrumentes analysieren und bei einem bestimmten Ton eine Klangfarbe eines Synthesizers in Abhängigkeit von der Lautstärke des analysierten Tones umschalten.
Den Anfang fand Max innerhalb der Ircam Signal Processing Workstation (ISPW). Das ISPW war eines der ersten portablen interaktiven Klangsynthese/Analyse/Abspielgeräte. Sozusagen ein kleines Klanguniversum, das das wichtigste an Klangmanipulationstechniken interaktiv kontrollierbar machte. Seit der Einführung des ISPW veränderte sich die Live elektroakustische Musik signifikant hin zu einem instrumental/elektronisch hybriden Medium. Es ermöglichte den Komponisten zum ersten mal, den Klang von akustischen Instrumenten in Signalverarbeitende Operationen mit einzubeziehen. Und das war gleichzeit mit der Erzeugung des Klanges möglich. Instrumentale Klänge konnte in komplexester Art und Weise manipuliert werden. Im Gegensatz zum Opcode Max war hier bewußt auf die Anwendung der mit allzu vielen Limitationen behafteten Sprache Midi zugunsten eines eigenen Protokolls verzichtet worden.
Max ermöglichte die Verbindung instrumentaler Kompositionstechnik mit der der elektroakustischen, wobei keines der beiden Bereiche benachteiligt wurden. Max war aber nicht nur für eine Menge interaktiver Kompositionen verantwortlich. Es wurde zum Rückrat der multimedialen Installationsszene mit ihren immer komplexer werdenden Controlern. Zusammen mit Midi ist Max gegenwärtig sicherlich eines der in der elektroakustischen Szene am meisten benutzten Environments, das Klang und Bild zusammenzubringen im Stand ist.

Und last but not least: Wer hätte gedacht, daß Newton´s Gesetze einmal für die Gestaltung von Musik wichtig werden könnten? Diese Gesetze und die Forschungsergebnisse der  Teilchenphysik wurden nicht mit der Idee entwickelt, sie für die Realisierung von Klängen einzusetzen. Aber in dem Augenblick, in dem die Ergebnisse dazu benutzt werden, um künstliche Animationen der Wirklichkeit herzustellen, wird schon eine Verbindung zur Musik sichtbar. Newton´s Gesetze beschreiben den Zusammenhang zwischen Bewegung, Geschwindigkeit, Gewicht und Kraft. Mit dem Stichwort Bewegung sollte die Brücke zur Musik eigentlich schon aufgeschlagen sein, da Klang ja bekanntlich das Ergebnis von Schwingungsprozessen darstellt. Und die Ergebnisse der Teilchenphysik lassen erkennen, daß es sich bei einem Objekt um ein aus einzelnen Elementen zusammengesetztes Ganzes handelt. Diese Idee führt weiter zu der Erkenntnis, daß man ein solches Objekt, z.B. eine Saite, aus diesen einzelnen Modulen zusammensetzen kann, wie man Perlenkette zusammensetzen kann. Diese Idee, entwickelt in Institut ACROE in Grenoble, läßt den Komponisten plötzlich komplexe physikalische Objekte bauen, die noch nie vorher das Licht der Welt erblickt haben. Würde also die erwähnte Perlenkette an einer Saite befestigt und die frei schwingende Seite angezupft, so ließe sich die Bewegung der einzelnen Kugeln aufzeichnen und schließlich über einen Lautsprecher wiedergeben.
Dies ist aber nicht nur eine Revolution die noch unterwegs ist und die Musik der Zukunft verändern kann. Ein Teil der instrumentalen Klänge werden bereits mit physikalischen Modellen erzeugt. Gewachsen aus einem mathematisch physikalischen Kontext werden es diese Instrumente den Komponisten ermöglichen was bisher unmöglich war: eine Saite aus Stein oder Holz, kleine schwingende Satelliten, die ihre Schwingungen in eine große Membrane einspeisen, die gleichzeitig aus den unterschiedlichsten Materialien bestehen kann.... Wir wissen nicht, wie das die Musik in der Zukunft beeinflussen wird. Vielleicht überhaupt nicht, vielleicht sehr stark, da sich eine ästhetische Revolution zumeist auf das Zusammenkommen mehrerer Faktoren begründet. Die Gesellschaft muß zumindest bereit für solche Veränderung sein, sonst haben die phantastischsten Entwicklungen gegenwärtig keine Konsequenzen, wie das Beispiel Satie zeigte.