------------ III zurück zur bio III return to bio III terug naar bio III ------------
------------ III zurück zu konzepte III ------------






Auslegung zum Konzept automata_inak_v.r.e.
reMI
A/NL 12.10.2001 - 13.09.2002


Allgemein

Mein Projekt realisiert sich durch Ortung der erstellten Klangkompositionen mit Hilfe der PD-Matrix im Cube, IEM TU Graz. Dafür ist eine Programmierung der Steuerung unter PD im Cube erforderlich. Weiters ist die Entwicklung von visuellen Daten und deren Steuerungsmodule vorgesehen. Die Aufführung des Stückes wird beim nächsten V:NM Festival im Mai 2003 stattfinden.

Kompositionen

Das erstellen der Kompositionen wurde durch eine Komponistenförderung des BKA finanziert. Bei den Kompositionen geht es hauptsächlich um Arbeiten die sich gegen eine klassische Dramaturgie wendet. Eine Entfernung von der Emotionsdarstellung und dem 4/4 Takt. Das Ausgangsmaterial für die Kompositionen sind konvertierte Videodaten und FoundFootage Material. Beides wurde in digitalen Übertragungsprozessen soweit zerstört, daß vom Originalmaterial nichts mehr hörbar ist. Die durch den Zerfallsprozeß übriggebliebenen akustischen Bruchteile wurden in einem anderen ästhetischen Kontext reorganisiert und komponiert. Die stark hoch- und niederfrequente Kompositionen interagieren auf auf acht Spuren. Durch einen Mix auf zwei Spuren löscht sich stellenweise das Klangmaterial aus und bildet das additative Kernstück der Komposition. (siehe Abbildung Audiokompositionen)

Steuerung im Cube

Die Komposition wird gleichzeitig als Partitur für die Spatialisation im Cube verwendet und bildet dadurch ein in sich abgeschlossenes System. Für die Programmierung der Ortung unter PD werden Zahlenkolonnen aus den Audiospuren ausgelesen und zugewiesen.

Beispiel einer der möglichen Zuweisung:
*01 *02 *03 *04 *05 *06 *07 *08
*01 X X X
*02 X X X
*03 X X X
*04 X X X
*05 X X X
*06 X X X
*07 X X X
*08 X X X
*Set_ra_vre (Audiospuren)
Synchron zur Ortung verwenden die Steuerungsmodule der visuellen Daten (RGB-, Alpha- und Zeilenaufbau) ebenfalls jene ausgelesenen Zahlenkolonnen.

Videokompositionen

Diese "Datenvideos" werden von den ausgelesenen Zahlenkolonnen der Spatialisationspartitur gesteuert und durchlaufen die unter PD/GEM entwickelten Echtzeitfilter. Die Filter kontrollieren RGB-, Alpha- und Zeilenaufbau des Bildes. Die teils restrealen geometrischen Dekonstruktionen der Datenvideos verfolgen die schnell wandernden Tonkompositionen und erzeugen beim Rezipienten einen Zustand von Desorientierung durch Komplexität.

Observierung und Installation

Bei den visuellen Daten handelt es sich um fünf vierundzwanzigminütige Videokompositionen. Das Ausgangsmaterial dafür waren ausgesuchte Bild- und Textfragmenten. Mittels arragierter Übertragungsfehler und/oder dem Korrupieren der Daten wurden Fehler in den Videofiles erzeugt. Ein Zusammenschitt der Bildsequenzen parallel zu den Schnittstellen der Komposition und stellt den Dialog zwischen Bild und Ton her. Neben der Ortung der Komposition mit Hilfe der PD-Matrix im Cube werden die Bildsequenzen durch fünf Monitore dem Rezipienten sichtbar gemacht. Die Vielfalt und Synchronität der computergenerierten Klang/Bildumgebung sorgt für ein intensives Erleben des virtuellen Raumes. (siehe Abbildung Audio/Videoinstallation im Cube)


Abbildung Audiokompositionen

Audiokompositionen, die gleichzeitig auch als Partitur (Parameter der Raumbeschallung) für die Spatialisation im Cube angewendet werden.

set_ra_vre 01

set_ra_vre 02

set_ra_vre 03

set_ra_vre 04

set_ra_vre 05

set_ra_vre 06

set_ra_vre 07

set_ra_vre 08

set_ra_vre 09

set_ra_vre 10


© reMI
entstanden im Video/Soundatelier algorythmics, leitnergasse 7 8010 graz austria