Tonlichtmanifest

Das Tonlichtmanifest definiert Prinzipien einer musikalische Darbietung, die zu einem intensiven und stimmigem audiovisuellen Erlebnis führen.


EINLEITUNG

Bis zum Einzug der Elektronik in der musikalischen Aufführungspraxis herrschte gewissermaßen eine audiovisuelle Einheit. Der Zuhörer sieht einen Musiker, der ein Instrument spielt. Der Klang des Instruments ist in etwa bekannt, da er es in der Regel schon einmal gehört hat. Dem Zuhörer ist sofort klar, wann welcher Musiker spielt, da er die Richtung des Schalls sofort mit dem gespielten Instrument in Verbindung bringt und es außerdem an den Bewegungen des Musikers erkennt. Außerdem bildeten Musiker traditionell immer eine Einheit mit den anderen Musikern oder selbst dem Publikum. Beim Spielen hören Musiker auf andere Musiker oder stimmen sich über kleine Gesten ab. Zuhörer lassen das Konzert überhaupt erst beginnen, in dem sie verstummen und den Musikern damit den notwendigen akustischen Raum geben. Sind sie am Ende zufrieden, fordern sie lautstark eine Zugabe ein. Alle Aspekte eines musikalischen Vortrags sind miteinander verbunden. Diese Zusammenhänge sind derart grundlegend, dass sich der Mensch im Allgemeinen nicht darüber im Klaren ist, wie wichtig sie sind.

Moderne Audiotechnik wie Mikrofone, Verstärker, Lautsprecher, Synthesizer, Sampler und Sequencer sind bei musikalischen Darbietungen heutzutage allgegenwärtig und lösen die oben beschriebenen Zusammenhänge weitestgehend auf. Mit dieser Geräten sind die musikalischen und aufführungstechnischen Möglichkeiten in vielerlei Hinsicht enorm erweitert worden. Gleichzeitig stellt die Audiotechnik jeder Darbietung auch eine Vielzahl von Fallen, die zum Bruch der audiovisuellen Einheit führen. Wenn dieser Bruch aus künstlerischer Perspektive intendiert ist, gibt es keinen Grund, den Einsatz zu kritisieren. Leider finden sich aber unzählige Beispiele, wo einige oder gar alle Zusammenhänge in einer Art und Weise aufgehoben worden sind, die darauf schliessen lässt, dass der Bruch nicht bewusst gewählt wurde, sondern nur eine zufällige Folge des Einsatzes moderner Technik ist. Die Kernaussage dieses Manifests ist, dass die audiovisuelle Einheit mit der Einhaltung von wenigen grundlegenden Prinzipien wieder hergestellt werden kann. Die sechs Prinzipien sind in drei allgemeine und drei spezifische gegliedert. Die allgemeinen Prinzipien betreffen jegliche musikalische Darbietung, bei der Schall nicht direkt von einem Musikinstrument auf den Zuhörer trifft, sondern aus einem anderen Medium wie elektrischen Strom gewandelt wird. Die spezifischen Prinzipien sind dann anzuwenden, wenn der Interpret durch technische Einrichtungen ganz oder teilweise ersetzt wird wie z.B. beim Einsatz von Sequencern.


ALLGEMEINE PRINZIPIEN

1. Einheit von Klangquelle und Schallquelle

Beispiel: ein Musiker spielt ein Instrument, dass mit einem Mikrofon abgenommen, verstärkt und über Lautsprecher wiedergegeben wird, die sich viele Meter links oder rechts von dem Instrument befinden. Zuhörer auf den vermeintlich besten Plätzen direkt vor dem Musiker leiden hier am meisten, da der Abstand zwischen dem klangerzeugenden Instrument und dem schallausstrahlenden Lautsprecher am größten ist. Spielt nur ein einziges Instrument, fällt es dem Zuhörer noch leicht, die Schallquelle dem Instrument zuzuordnen. Bei mehreren ähnlichen Instrumenten ist jedoch kaum mehr möglich und man ist als Zuhörer auf den visuellen Kanal angewiesen. Doch das Problem ist nicht nur die Ortung des Schalls, sondern auch die multimodale Wahrnehmung des musikalischen Vortrags. Haben akustische und visuelle Reize den selben raumzeitlichen Ursprung, werden sind schon vom Kind an als Einheit wahrgenommen. Die visuelle Komponente unterstützt bei der Aufnahme des akustischen Inhalts und macht ihn zugänglicher, so wie auch das Sehen von Lippenbewegung es einem leichter macht, einen Sprecher zu verstehen. Ein Bruch von auditiven und visuellem Kanal erhöht die Anforderungen an die Rezipienten und verringert die Intensität des Erlebnisses. Folgendes Prinzip sollte daher erfüllt werden:

Klangquelle und Schallquelle müssen als physische Einheit wahrgenommen werden.

Der Ort der Klangerzeugung und die hörbare Schallquelle müssen entweder wie bei klassischen Musikinstrumenten identisch sein, oder im Fall von elektrisch übertragenen und über Lautsprecher ausgegebenen Klängen so nah beieinander liegen, dass sie vom Menschen als physische Einheit wahrgenommen werden.



2. Einheit von Musikinstrument und klanglicher Identität

Beispiel: eine Musiker nutzt während eines Konzertes ein Keyboard einmal als Klavier und ein anderes Mal als Ersatz für Blasinstrumente. Hat der Zuhörer dem Ersatz des Klavier durch ein Keyboard vielleicht noch zugestimmt, da Klang und Aussehen der Instrumente durchaus Ähnlichkeiten aufweisen, tritt spätestens bei den funkigen Bläserriffs Unbehagen ein. Genauso fragwürdig wäre es, wenn jemand eine Trompete spielte, die wie ein Klavier klänge – und zwar nicht, um den Zuhörer irgendwie zu überraschen, sondern einfach nur so. Folgendes Prinzip sollte daher erfüllt werden:

Ein Musikinstrument muss eine klangliche Identität haben.

Durch unkonventionelle Spielweise oder Zuhilfenahme von Manipulatoren verfügen die meisten Instrumente wie z.B. Gitarre oder Trompete über ein enormes Spektrum an unterschiedlichen Klängen. Dennoch hat der Zuhörer keine Schwierigkeiten, vom Klang auf das erzeugende Instrument zu schliessen, insbesondere wenn das erste Prinzip erfüllt ist. Wenn er dies in dem gewählten Beispiel dennoch nicht vermag, liegt das an Missachtung des zweiten Prinzips.



3. Einheit von Klang und Erscheinung

Bespiel: eine Pianist spielt nach einer ruhigen Passage plötzlich engagiert im Fortissimo. Anhand der Bewegungen des Musikers könnte man auch ohne den auditiven Kanal rein visuell erkennen, dass es sich um einen sehr lauten und dynamischen Abschnitt in der Musik handelt. Ein anderes Beispiel: ein Musiker, der an einem Computer live Musik generiert, wechselt mit einem Knopfdruck ein Pattern und auch hier wird eine ruhige Passage von einer sehr lauten abgelöst. Allerdings ist dies dem Auge des Zuhörers vorenthalten geblieben – die Erscheinung des Musiker und seines Instruments ist unverändert. Der Zuschauer weiß theoretisch nicht, ob in diesem Moment der Musiker diesen Dynamikwechsel just in diesem Moment veranlasst hat, zum Zeitpunkt der Erstellung der Komposition, oder ob es einen technischen Grund hatte, oder vielleicht sogar nur reiner Zufall war. Diese Unklarheit wird in der Regel akzeptiert, weil sie gängige Praxis ist, aber sie ist selten bewusst gewollt.

Folgendes Prinzip sollte daher erfüllt werden:

Die visuelle Erscheinung muss dem Klang in seiner Wahrnehmung entsprechen.

Die Einhaltung dieser Regel ist durchaus auch bei rein elektronischer Musik möglich, z.B. durch den Einsatz von Beleuchtung oder Videos, wie es ja auch üblich ist. Entscheidend ist jedoch dabei 1. die genaue Synchronisation des visuellen mit dem auditiven Kanal, 2. die räumliche Nähe der dynamischen Erscheinung zu dem Instrument, wenn visuelle und auditive Reize nicht vom dem selben Objekt oder Person hervorgerufen werden wie beispielsweise bei zusätzlich eingesetzten Projektionen und 3. eine intuitive Entsprechung bezüglich der verschiedenen Sinnesmodalitäten. Mehr Schalldruck sollte hier in mehr Lichtleistung und höheres Tempo in schnellere visuelle Bewegung übersetzt werden. Leider werden diesen einfachen Zusammenhängen oft wenig Bedeutung geschenkt, was häufig dazu führt, dass das Publikum selbiges der Darbietung beimisst.



SPEZIFISCHE PRINZIPIEN

4. Interaktion mit dem Gesamtklang

Beispiel: bei einem Konzert wird eine vorher aufgenommene Tonspur abgespielt, um den Gesamtklang zu bereichern. Die akustischen Parameter sind bereits vollständig bei der Aufnahme determiniert und können bei der Aufführung nur noch rudimentär angepasst werden (Lautstärke, Equalizer). Die Musiker hingegen können fortwährend ihr Spiel auf den Gesamtklang hin anpassen und bei jedem Ton Dynamik, Klangfarbe oder sogar Intonation wählen. Da die Tonspur praktisch unveränderlich ist, begrenzt sie die Musiker und das Konzert, indem sie sie dazu zwingt, sich nach ihr zu richten. Bei einer dynamisch erzeugten zusätzlichen Spur (beispielsweise eine live spielende Musikmaschine) verschiebt sich das Problem. Hier sind klangliche und musikalische Parameter zwar beeinflussbar, aber es gibt i.d.R. keinen Interpreten oder Vorrichtung, die dies live auch tut. Das Ergebnis ist dasselbe und in beiden Fällen sollte daher folgendes Prinzip erfüllt werden:

Jedes Instrument muss mit dem Gesamtklang interagieren.

Dabei ist hier mit Instrument eigentlich das Paar von Instrument und Interpret gemeint und eben die Folgen der fehlenden Regelung durch den Interpreten gilt es zu beheben. Um im genannten Beispiel Abhilfe zu schaffen, muss die zusätzlich Spur dynamisch von einem Instrument erzeugt werden, das über Sensorik verfügt, die es ihm ermöglicht, seine Spielparameter auf den Klang des Gesamtvortrags abzustimmen. Dazu kann beispielsweise das Regeln der Lautstärke, Brillanz und Tonhöhe gehören, aber auch eine Reaktion auf musikalische Aspekte wie z.B. Phrasierung ist denkbar.



5. Interaktion mit dem Rezipienten

Beispiel: bei einem Jazzkonzert spielt ein Schlagzeuger ein Solo. Das Publikum ist begeistert und jubelt. Daraufhin steigert der Schlagzeuger nochmals die Intensität seiner Improvisation. Das Publikum wiederum ist zufrieden, denn es merkt – wenn vielleicht auch nicht bewusst – wie es Einfluss auf das Konzert nehmen kann. Diese Interaktionen mit dem Publikum mögen rar sein, aber vielleicht sind sie genau deshalb so wichtig und befriedigend sowohl für Rezipienten als auch Vortragende. Beispielsweise wird ein Chor erst dann anfangen zu singen, wenn der letzte Zuhörer still ist. Damit wird der Musiker zum Zuhörer und beim Rezipienten wiederum liegt ein nicht unerheblicher Einfluss auf das Konzert: nur solange er ruhig ist, gibt er den Musikern den Raum für ihre Darbietung. Wenn dieser Einfluss fehlt, wird die musikalische Darbietung deutlich hermetischer und statischer. Folgendes Prinzip sollte daher erfüllt werden:

Jedes Instrument muss mit dem Rezipienten interagieren.

Auch hier ist wieder mit Instrument eigentlich das Paar Instrument-Interpret gemeint. Bei vollständig computergesteuerten Konzerten ist die Realisierung dieses Prinzips herausfordernd. Als minimale Anforderung kann gelten, die Bereitschaft zu beurteilen, die das Publikums dem Musikkonsum entgegenbringt – also wie leise oder aufmerksam es ist, und darauf adäquat zu reagieren. In seiner maximalen Ausprägung fordert das Prinzip, dass jedes Instrument auf die Stimmung des Publikums eingeht, also den bewussten wie unbewussten kollektiven Wünschen, die an die Darbietung gerichtet sind.



6. Einzigartigkeit einer Darbietung

Beispiel: ein Konzert mit rein elektronischen Instrumenten wird über eine Sequencing Software live generiert. Es ist vollständig vorproduziert und wird bei jeder Aufführung exakt wiederholt. Auch wenn es erstrebenswert sein mag, alle Feinheiten bis ins letzte Detail zu kontrollieren, wirkt es sich negativ auf das Gesamterlebnis aus. Gewollte und ungewollte Variation der klanglichen, visuellen und musikalischen Parameter sind ein elementarer Aspekt jeglicher menschlicher Darbietung. Fallen sie weg, verliert die Musik an Überraschung und das Erlebnis wird so beliebig wie das Abspielen einer Sounddatei. Folgendes Prinzip sollte daher erfüllt werden:

Jede musikalische Darbietung muss einzigartig sein.

Ein Mensch kann einen Stück nie zwei mal exakt gleich spielen. Darüberhinaus wird er vermutlich bestimmte Teile immer sehr ähnlich und andere eher leicht unterschiedlich vortragen. Eine Maschine wird eine Aufführung exakt replizieren, außer wenn Variabilität technisch und kompositorisch realisiert ist. Das sechste Prinzip ist ja eigentlich bereits erfüllt, wenn Prinzip vier und fünf gelten. Trotzdem lohnt es sich, dem sechsten Prinzip separate Aufmerksamkeit zu widmen. Es kann auch als die Interaktion der Komposition mit sich selbst verstanden werden. Das Prinzip trägt dazu bei, die Identität einer Komposition zu schärfen, indem es den Komponisten/Interpreten auffordert zu definieren, welche Aspekte an einem Musikstück variabel und welche invariant sind. Die Prinzipien 4-6 sind eng miteinander verwoben und stehen mitunter im Konflikt. Spielt beispielsweise ein Instrument eine Passage mit reduzierter Lautstärke, weil das Publikum besonders aufmerksam ist, könnte bei der Wiederholung des Abschnitts wieder eine geringere Dynamik gewählt werden, um die Konsistenz der Komposition zu wahren, obwohl die Publikumslautstärke vielleicht beim zweiten Mal höher ist. Wie auch immer – die Hauptsache ist, dass Interaktivität und die daraus resultierende Veränderlichkeit gewahrt sind. Ein Konzert wird erst dann einmalig, wenn es nicht wieder genau so wiederholt wird.



ZUSAMMENFASSUNG

Wenn Musiker auf klassische Weise mit mechanischen Instrumenten Musik vortragen, werden die vom Manifest aufgestellten Prinzipien alle inhärent erfüllt. Bei computergesteuerter Musik durch Elektrophone, bei der Schallsignale gewandelt und mit Lautsprechern wiedergegeben werden, sind i.d.R. einige, oft sogar alle Prinzipien verletzt. Dennoch kann durch bewusstes Wiederherstellen der sechs Prinzipien auch computergesteuerte Musik ähnlich organisch wahrgenommen werden wie eine menschliche Darbietung auf mechanischen Instrumenten.

Wer der Meinung ist, dass die Prinzipien keine große Rolle spielen, soll doch bitte einmal folgendes Gedankenexperiment machen: man stelle sich ein Kammerkonzert vor, bei dem die Musiker und ihre Instrumente jeweils durch Abspielgeräte ersetzt worden sind, die bereits aufgezeichneten Musik wiedergeben. Die Lautsprecher sind irgendwo hinter dem Publikum aufgestellt. Um die nicht anwesenden Musiker optisch zu ersetzen erfolgt auf einer Leinwand die Projektion eines Videos, der die Musiker beim Spiel zeigt – allerdings von einem anderen Stück. Die Darbietung beginnt unvermittelt und läuft eindeutig vorhersagbar ab, also ohne jegliche Interaktion zwischen den Apparaten oder mit dem Publikum. Darüberhinaus wird das Konzert immer in dieser Form wiederholt. Wäre dieses Szenario nicht der Albtraum einer musikalischen Darbietung? Dabei ist ja eigentlich die Musik, die Musiker als auch die Instrumente dieselben, wenn sie es live gespielt hätten! Das zeigt wie wichtig die audiovisuelle Einheit und eine interaktive Darbietung sind. Dieses theoretische Extrembeispiel führt ebenso vor, dass in der Praxis meistens nicht alles falsch gemacht wird. Dieses Manifest ist vor allem ein Aufruf an Künstler, die elektronisch gesteuerte und erzeugte Musik und Bildmaterial in ihren Darbietungen einsetzen. Es ist nicht die Technik, die hier kritisiert wird, sondern nur ihr gedankenloser Einsatz. Sie ist sogar notwendig, um das Potential elektronischer Musik voll auszuschöpfen. Ist eine Aufführung intelligent gestaltet und trägt den Prinzipien des Tonlichtmanifests Rechnung, können die Grenzen klassisch aufgeführter Komposition überschritten werden und das Werk trotzdem leicht zugänglich für das Publikum sein.