Beitragsbild_Hypnolizer

Creative Coding || The Hypnolizer

Dem Begriff «Creative Coding» begegnet man immer wieder einmal, wenn man sich etwas mit den neuen Medien befasst. «I realized that the intersection of art and math is the computer», sagte Nicholas Negroponte, welcher der erste Investor des Magazins «Wired» war. Da hat er nicht ganz unrecht, wenn man an all die hübschen Grafik- und Musikprogramme denkt. Doch wie soll Computercode an sich jemals kreativ sein?

So begaben wir uns ohne speziellen Programmierkenntnisse auf die Suche nach Creative Coding mit dem Hintergrund, dass wir schon immer mal wissen wollten, wie man die Farben und Formen auf den Leinwänden an Partys und auf Bühnen von grossen Konzerten zum Tanzen bringt. Wenn man sich auf die Suche nach Creative Coding begibt, stösst man relativ schnell auf processing.org. Dies ist eine Code-Bibliothek basierend auf Java, welche am MIT in Boston von Ben Fry und Casey Reas entwickelt wurde. Eine Weiterentwicklung von Processing ist p5.js, welches auf JavaScript basiert und optimal für die Anwendung im Web ist. Für unser Projekt haben wir einen Song produziert, der in verschiedene Teile gegliedert ist, um so unterschiedliche Bilder zu generieren und ein Stück weit eine Geschichte zu erzählen.

Die Visualisierung wurde speziell auf die Frequenzen des Songs angepasst. Dieselbe Visualisierung kann hier mit dem Mikrofon-Input selber bespielt werden. Allerdings funktioniert das nur im Firefox und die Berechtigung für das Mikrofon muss freigegeben werden.

(fs)

Kritik
von Jonathan Müller und Steven Rohner

Visualisierung

Nachdem wir herausgefunden haben mit welchem Programm wir unsere Visualisierung machen wollen, ging es darum herauszufinden wie das Ganze funktioniert und was überhaupt machbar ist. Hierfür waren die Tutorials von Daniel Shiffman, sowie die Referenzen und Beispiele auf p5js.org sehr hilfreich. Eine andere gute Quelle der Inspiration und Hilfe fürs Verständnis, war openprocessing.org, da Processing sehr ähnlich wie P5 aufgebaut und auch schon weiter verbreitet ist.

Von der Denkweise ist es eine grosse Umstellung im Vergleich zu herkömmlichen Animationsprogrammen, denn man arbeitet nicht mit Positionen die sich über die Zeit verschieben indem man Keyframes setzt, sondern mit Variablen die sich nach bestimmten Kriterien verändern. Die Visualisierung sollte etwas an ein Kaleidoskop erinnern aber aus rein geometrischen Formen bestehen, denn sobald es in Richtung organische Formen geht, wird es sehr schnell kompliziert. Um die Dreiecke etwas zu gliedern haben wir Kreise hinzugefügt die auf einen anderen Frequenzbereich reagieren. In der Sound Library von P5 gibt es verschiedene schon vordefinierte Algorithmen die den Song unterschiedlich analysieren. Es kann die Lautstärke an sich, als Variable verwendet werden oder so wie wir es gemacht haben, die unterschiedlichen Frequenzen. Der Algorithmus von P5 erzeugt ein Array mit einer Länge von 1024 Messpunkten die jeweils einen Wert zwischen 0 und 255 ausgeben. Von daher kann man nicht sagen, dass man die rohen Frequenzdaten zur Verfügung hat. Die wurden schon vom P5 Algorithmus verrechnet. Für unsere Visualisierung waren die 1024 Messpunkte aber zu viel, so dass keine klaren Formen und Unterschiede erkennbar waren und alles sehr nervös wirkte, deshalb haben wir diesen Bereich anders kalibriert. Von daher kann man sagen, dass die Visualisierung für effektive Messung nichts taugt, wobei das auch nicht der Anspruch war. Die User Experience wollten wir ähnlich wie bei einem Video machen, was heisst durch eine Interaktion wird das Programm gestartet und man kann es sich ansehen. Dies ist auch der Grund weshalb der Bildschirm direkt in den Vollbildmodus wechselt. So kann der Vorführeffekt verstärkt werden und hoffentlich die Aufmerksamkeit des Benutzers länger aufrechterhalten werden. Hier hatten wir zu Beginn das Problem, dass der Song eine gewisse Zeit braucht um im Hintergrund geladen zu werden, was zu Folge hatte, dass der Bildschirm weiss war und man nicht genau wusste was jetzt vor sich ging. So haben wir unsere Ausgangsform zugleich als Ladesymbol verwendet. Wenn der Song geladen ist, wird man aufgefordert eine Taste zu drücken um das Programm zu starten. Zu Beginn war noch die Idee da, dass der Benutzer selber einen Song abspielen kann und dazu eine Visualisierung entsteht. Hierfür fanden wir leider keine Schnittstelle von Youtube und Soundcloud oder um die jeweilige Soundkarte direkt anzusprechen, so haben wir es über den Mikrofon-input versucht, was aber leider aus unerklärlichen Gründen nur im Firefox funktioniert, wobei es lokal auch im Chrome funktioniert.

Sound

Der Sound wurde selbst komponiert und mittels GarageBand in die Tat umgesetzt. Es sollte ein Stück sein welches mit den verschiedenen Frequenzen spielt. Jedoch war das Songwriting schwer da wir uns in dieser Musikrichtung nicht auskennen. Das Stück wurde mit der Midi-Tastatur eingespielt, es enthält nur 2 Loops aus GarageBand selber. Es war schwierig den Song zu mastern da wir auf die Frequenzbereiche achten mussten damit diese nicht abgeschnitten werden. Dies war insofern eine Herausforderung weil der .mp3 kodierer je nach Bitrate die Frequenzen in den Höhen und Tiefen zuschneidet. Wir durften jedoch nicht die kleinste Bitrate wählen, was für das Online-stellen sicher am besten gewesen wäre, stattdessen mussten wir uns in der Mitte orientieren, da unser Formenspiel genau auf diesen Frequenzen basiert. Der Song entstand durch die Idee “Wir könnten einen House Song machen, so schwer kann das nicht sein”. Wir versuchten einen gemütlichen “Lounge - Song” zu machen. Da wir keine Gitarren und Schlagzeuge verwenden wollten, blieb nur die Tastatur und Maus. So wurde ein Experiment daraus: Wer hat schneller einen fertigen Song? Eine Band oder ein Typ am Pc.

Es ist definitiv der Typ am Pc. Eine Band hätte in dieser Zeit gerade mal die Grundstruktur und einzelne Parts ausgearbeitet was wir aus eigener Erfahrung wissen. Die ganzen Zwischenparts oder Übergänge und Details wären noch in der Rohfassung da es in einer Band meist drei oder vier verschiedene Meinungen und Lösungsvorschläge gibt. Dann käme noch der ganze Prozess des Aufnehmen und Mixing & Mastering hinzu.

Eine Hürde war dass wir beide keine solche Musik hören, was es schwierig machte dies zu komponieren. Wir dachten uns einfach “das klingt etwa so”. Der Song ist im Gesamten über 6:30 lang und hat 4 verschiedene Hauptteile und mehrere Zwischenteile. Die einzelnen Parts wurden im Vergleich zum Rest fast schon schnell geschrieben. Schwierig wurde es diese alle miteinander zu verbinden ohne dass der Hörer etwas merkt. Viele dieser Übergänge sind Soundeffekte welche Verzerrt wurden, damit der Hörer etwas Neues wahrnimmt und nicht merkt dass etwas Wesentliches wechselt. Zusätzlich zu den Effekten wurde viel mit verschiedenen Bassfrequenzen gespielt. Dies hat zur Folge dass ein Song gleich klingen kann aber eine ganz andere Stimmung bekommt. Als Beispiel eine aufbauende oder düstere Stimmung. Der gesamte Song umfasst über 15 verschiedene Tonspuren und über 4 verschiedene Bearbeitungsspuren, was das Originaldatei sehr gross macht und eine gewisse Rechenleistung benötigt.

Keine Kommentare

Schreibe einen Kommentar