the berghain column – november 2014

 

 

 

Tools

Some time ago, that is, about 2.6 million years ago, a couple of hominids began to employ tools carved from stone. Why they did so and which thoughts they entertained while this was happening remains unrecorded. It seems though that ever since that moment tools don’t just shape stuff into forms, but also leave a trace in spiritual content. Soon after Newton and Laplace developed their ideas of the working of the universe, the “giant clockwork” metaphor of stellar mechanics emerged – with God being appointed as clock maker. Shortly before this concept became widely accepted, clocks had become relevant in measuring the movements of objects in the skies: they became indispensable tools in bringing open-sea navigation forward (“astronomic clocks” that mirrored the phases of the moon were developed way earlier). In 1714 the English crown had promised 20.000 pounds to the one who manages to develop an accurate method of tracking longitude at sea. Harrison grabbed the grand prize not earlier than in 1759 when he presented the marine chronometer – a clock that would deviate only a few seconds over the course of several weeks (for measure: 20k pounds could buy a liner ship with 2 to 3 decks and 64 to 80 cannons – or pay annual salaries to 2000 ordinary labourers).

Similar metaphoric links have been shown to exist between Faradays experiments in electromagnetic induction and subsequent descriptions of physiological processes (“muscle current”) or with the rise of psychological models of “mind as a computer” and decision making as the output of an “intuitive statistician”, situated in the mind, since the 1950s.

Thus, tools generate metaphors and concepts that exceed what their simple functional uses suggest. Gigerenzer packaged this insight into his “tools to theories”-heuristic: 1.) Discovery: New scientific tools, once entrenched in a scientist’s daily practice, suggest new theoretical metaphors and concepts. 2.) Acceptance: Once proposed by an individual or group, the new theoretical metaphors and concepts are more likely to be accepted by the scientific community if their members are also users of the new tools (i.e., the new tools have been sufficiently institutionalised in the community – otherwise people just don’t get it).

It has been overlooked that this model might just as well apply to the sphere of cultural production. A direct link between material and style or between the layout of tools and style (“303 generates Acid”) has been claimed in aesthetics as early as 1860 (G.Semper “Der Stil”). But that the actual state of distribution of tools and the degree of their institutionalisation in the artistic community play a role in the acceptance of new forms springing off of these hasn’t been discussed much.

If you ask yourself how techno’s repertoire of forms could infect US mainstream pop seemingly overnight, you should look into distribution patterns of music production software. Editing functions of software since ProTools surely represent a starting point of a development where selection of the “best” segment became more relevant than a coherent flow of a continuous performance (it has been reported that Def Leppard’s “Hysteria” sessions had them record individual tones of a guitar chord to separate tracks in order to optimise them individually before summing them back together).

Now, techno is nothing but converting segments of information (enveloped segments of synthesis, samples cut out of longer stretches of recorded music etc.) into stable perceptual entities through potentially endless repetition (alone by encouraging  fading beginnings and endings in and out in a DJ mix, eternal loops and thus open forms are suggested – even when you listen to the record on its own). Techno conveys its criteria in the process of listening repeatedly – ‘statistical learning’ – just as a child is taught the meaning and context of a word through repeated exposure.

The origin of what is being looped is almost arbitrary then: the infamous “fiddling knobs” production mode of techno generates random material that is evaluated after the fact by listening to a potentially perpetual loop. Only then the loop is accepted, altered or discarded. Producers spend the bulk of their time listening to individual bars of sound, set on repeat.

Now, some loops are better than others and the history of techno is the time that was spent to explore the hierarchy and alternative branches of looped audio (which also keep changing dynamically in many aspects, while others remain rock-solid like the 4/4 kick drum or the 4-beat metric frame – but that’s a different issue). When extremely suggestive (= encouraging grid-matching and looping segments of audio before anything else) production tools like Ableton Live became the studio and performance standard for all sorts of music, even producers of genres from hip hop to experimental electronics to guitar rock got exposed to the specific charms of repeated snippets. And thus everything began to sound like techno.

 

Werkzeug

Vor einiger Zeit, also vor etwa 2,6 Millionen Jahren, begannen einige Hominiden, Steinwerkzeuge zu nutzen. Was sie sich dabei gedacht haben, ist nicht so recht überliefert. Es scheint jedoch, dass seither Werkzeuge regelmäßig nicht nur Material, sondern auch geistige Inhalte in Form bringen. Dass etwa in der Nachfolge von Newton und Laplace das Universum als eine Art enormes mechanisches Uhrwerk und Gott als Uhrmacher imaginiert wurden, liegt vermutlich vor allem daran, dass mechanische Uhren erst kurz vorher, nämlich im Bereich der Navigation, mit der exakten Vermessung von Bewegungen der Himmelskörper in Verbindung gebracht worden waren (“astronomische Uhren”, die etwa die Mondphasen abbilden, kamen wesentlich früher auf). Harrison hatte 1759 das Problem der Längenbestimmung auf See mit der Konstruktion des Marine-Chronometers gelöst, für dessen Entwicklung 1714 ein Preisgeld von 20.000 Pfund ausgesetzt worden war (Kaufpreis eines Linienschiffs mit 2-3 Decks und 64 bis 80 Kanonen bzw. 2000 Jahreseinkommen eines einfachen Arbeiters).

Ähnliche konzeptionelle Zusammenhänge wurden etwa auch zwischen Faradays Experimenten zur elektromagnetischen Induktion und Beschreibungen physiologischer Vorgänge (“Muskelstrom” – vgl. Pierer’s Universal-Lexicon von 1857, Artikel “Elektricität”) sowie zwischen der Verwendung von Computern und statistischen Methoden durch Psychologen seit den 1950er Jahren und aufkommenden Modellen des Gehirns als Computer und von Entscheidungen als Output eines “intuitiven Statistikers” aufgezeigt.

Werkzeuge generieren so Metaphern und Konzepte, die weit über den eigentlichen funktionalen Gebrauch hinausreichen. Gigerenzer brachte diesen Umstand auf den Zweischritt der “Tools to Theories”-Heuristik: 1.) Entdeckung: neue Werkzeuge, die sich im Alltag der wissenschaftlichen Praxis etablieren, suggerieren neue theoretische Metaphern und Konzepte. 2.) Akzeptanz: Werden diese Theorien von Wissenschaftlern zur Diskussion gestellt, ist ihre Akzeptanz durch andere wahrscheinlicher, je mehr von ihnen die gleichen neuen Werkzeuge verwenden.

Dass dieses Modell auch im Bereich kultureller Produktion einschlägig ist, scheint bisher nicht gesehen worden zu sein. Ein direkter Zusammenhang zwischen Material und Stil oder Werkzeug-Layout und Stil (303 -> Acid), ist zwar bereits vor 155 Jahren behauptet worden (Semper: “Der Stil”, 1860). Dass aber die Verbreitung der Werkzeuge für die Akzeptanz neu entstandener Formen eine Rolle spielt, ist bisher nicht so recht thematisiert worden.

Wer sich fragt, wie der Formenvorrat von Techno den amerikanischen Pop-Mainstream fast über Nacht überrennen konnte, könnte die Vertriebsgeschichte der Produktionswerkzeuge befragen. Die Editiermöglichkeiten von Software seit ProTools bildeten sicherlich eine Vorstufe, in der die Auswahl des besten Ausschnitts  die Oberhand über die kohärente Ganzheit einer Performance gewann (angeblich zerlegten Def Leppard bei den Aufnahmen für “Hysteria” im Jahr 1987 Gitarrenakkorde in Einzeltöne und zogen diese auf verschiedene Spuren, um sie einzeln optimieren und danach wieder zusammensetzen zu können). Techno ist nun nichts anderes als die Überführung von Ausschnitten in solide Wahrnehmungseinheiten durch das Mittel der Wiederholung: es ist Musik, die ihre Kriterien im Verlauf des Hörens selbst als Lernprozess offenbart und vermittelt (“statistisches Lernen”). Der Ursprung der Loop-Inhalte ist dabei geradezu beliebig – das berühmte Knöpfchendrehen an den Maschinen erzeugt Zufallsmomente, die erst in der potentiell endlosen Wiederholung beurteilbar werden. Produzenten verbringen daher den größten Teil ihrer Zeit damit, sich ein und denselben Takt wieder und wieder anzuhören.

Bestimmte Loops sind nun besser als andere. Die Geschichte von Techno spiegelt die Zeit der Erforschung dieser Hierarchien und Verästelungen (die auch noch ständiger dynamischer Umwertung unterliegen, während Einzelaspekte wie die Viertel-Bassdrum oder die metrische Vierer-Außenklammer erstaunlich stabil bleiben – aber das ist ein eigenes Thema) Erst als extrem Loop-orientierte Produktionswerkzeuge wie Ableton Live zum Studio- und Performance-Standard wurden, konnten sich die spezifischen Reize von Techno dann auch Produzenten von Hip Hop oder gar Gitarren-Acts erschließen. Und siehe da, alles ward Techno.