Offene Steuerung für improvisierende Maschinen – Beitrag 3

Die Verwendung von perkussiven Sounds zur Erstellung von rhythmischen Mustern und die Kombination mit Field-Recordings und Sprachaufnahmen.

Um den Stand meines Projekts zur offenen Steuerung in Puredata darzulegen, darf ich euch dieses kurze Video zeigen. Wie zu sehen ist, verwende ich zwei verschiedene Player, („PGS“ und „LSM“ welche in Beitrag 1 in ihrer Funktion erklärt worden sind)

Zu Beginn hört man die Aufnahme einer Unterhaltung, welche dann zerstückelt und in ihrer Geschwindigkeit variiert wird. Diese Einspielung wird von einsetzenden perkussiven Klängen begleitet bzw. unterbrochen. Der perkussive Teil wird mit Klängen von Schlagzeug und Bass gestaltet, wobei Huster und Gesprächsfetzen – im rhythmischen Raster bleibend – eingespielt werden. Gegen Ende des Auszuges wird eine Sprachaufnahme eines bekannten französischen Philosophen (Jacques Derrida) eingespielt, die dann ebenfalls der rhythmischen Grundstruktur entsprechend variiert wird. Es soll hier zu diesem Zeitpunkt kein fertiges Stück präsentiert, sondern der Stand meines Forschungsprojektes zur offenen Steuerung in Puredata an einem Hörbeispiel dargelegt werden.

Die Ebenen der Steuerung und Improvisation:

1. Bedienung (Mensch): Auf dieser Ebene agiert der/die AnwenderIn mit Steuerimpulsen, d.h. mit dem Start, Stopp oder der Festlegung eines der Player. Das zugrundeliegende Steuermodell habe ich als offene Steuerung bezeichnet, da der/die AnwenderIn v.a. auf der Ebene der Bedingung der Möglichkeit agiert. Wird nun ein Player gestartet, kann dieser durch seine Steuerparameter mehr oder weniger stark determiniert, d.h. festgelegt werden. Will der Anwender zu gewissen Zeitpunkten ein determiniertes Verhalten auslösen, müssen nur die Steuerparameter entsprechend „eng“ eingestellt werden. Weiter können, wie in vorliegendem Beispiel, Steueranweisung verkettet werden, damit sie von mehreren beteiligten Playern (Maschinen) umgesetzt werden.

2. die improvisierenden Maschinen: die verschiedenen Player, so wie sie in dem vorliegenden Patch zu sehen sind, wählen die Parameter der Reproduktion eines Soundfiles (oder im weiteren der Effekte, etc.) innerhalb eines gewissen Rahmens zufällig. Diese teildeterminierte Auswahl und Zeitigung bezeichne ich hier als Improvisation.

Automatisierung:

Welche Entscheidungen hier auf welcher Ebene (Mensch/Maschine) getroffen werden, lässt sich freilich ebenfalls steuern. Dadurch könnte der Einfluss des/der AnwenderIn sehr gering ausfallen – so dass z.B. nach dem Drücken auf Start, die Maschinen vollkommen selbsttätig agieren und innerhalb der anfangs eingestellten Parameter improvisieren. Interessanter für den/die kreativeN AnwenderIn ist wohl, ein gewisses Maß an Interaktion zu erhalten und auszubauen – um zu gegebenen Zeitpunkten einzugreifen und gewisse Steuerungsketten zu aktivieren oder auch einzelne Soundereignisse auszulösen. Wobei wir wieder bei der ethischen Dimension der Automatisierung angelangt wären, welche ich schon im letzten Beitrag kurz thematisiert habe.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

zwanzig + sieben =