Zur Startseite
  • Programm
  • Reihen
  • Förderer
  • Autor*innen
  • Zeitschriften
  • Studium
  • BiUP
  • mdwPress
  • Info
  1. Start
  2. Programmbereiche
  3. Medienwissenschaft
  4. Medientheorie
  5. Digitalität tanzen!
  6. II KONTRA-TANZ

II KONTRA-TANZ

DOI: 10.14361/9783839466261-003
  • Photo Miyazaki,  Shintaro
    Miyazaki, Shintaro ORCID: 0000-0002-7922-735X
Book Cover [Title]
menu_book Zum Gesamtwerk picture_as_pdf Beitrag herunterladen (PDF) chrome_reader_mode Beitrag lesen (HTML) description Zitationsinformation
Miyazaki, Shintaro (2022). II KONTRA-TANZ. In: Shintaro Miyazaki (Eds.), Digitalität tanzen! (80-127). Bielefeld: transcript Verlag. https://doi.org/10.14361/9783839466261-003

Book DOI: https://doi.org/10.14361/9783839466261-003

Online ISBN: 978-3-8394-6626-1

© Miyazaki, Shintaro © by-sa This work is licensed under the Creative Commons Attribution-ShareAlike 4.0 License (CC BY-SA 4.0)

Retrieved 2023-03-24 7:38:27-CETtext_snippet Download RTF
Views / Downloads
1417 / 753
Erscheinungstermin
01. November 2022
Creative Commons Lizenz
Creative Commons cc-by-sa
Open Access enabled by
Humboldt-Universität zu Berlin

Beiträge

cancel
Frontmatter

Miyazaki, Shintaro

Inhalt

Miyazaki, Shintaro

INTRO

Miyazaki, Shintaro

I KO-OPERATIVITÄT

Miyazaki, Shintaro

II KONTRA-TANZ

Miyazaki, Shintaro

NACHWORT

Miyazaki, Shintaro

menu_open
DOI: 9783839466261-003

II
KONTRA-TANZ

Tanzen ist weder reiner Instinkt, noch ein purer maschinell-vegetativer, isolierter Algorithmus und sicherlich nicht kontextfrei. Tanzen will gelernt werden und oszilliert zwischen dem Affektiv-Somatisch-Unbewussten und dem Vernünftig-Gemeinschaftlichen. Liefern wir uns den Affekten direkt aus, vor allem jenen der Dispositive, die von profitorientierten Mächten und Operativitäten beherrscht werden, erleiden wir nur spontane Zuckungen, Katastrophen, epileptische Krisen, Disruptionen, Netzwerkszusammenbrüche. Sind wir hingegen bereit, die Affekte zu prozessieren und ihren Umgang zu lernen, um dann mit einer eigenen Haltung zu reagieren, dann entspräche dies einem Tanz. Dabei kann die Lern- und Sublimationsphase wie bei einem Technorave auch relativ kurz und simpel sein, doch unsere Fähigkeit zu Lernen ist seine Bedingung. Tanzen ist Lernen und hat weniger mit Wut, Kampf, Aufstand, genereller formuliert, mit Aggressivität zu tun, sondern vielmehr mit Ausdauer, Haltung, Eleganz, Können, Einsicht, Widerstand und Kunst. Ein Tanz bewegt sich nicht innerhalb eines vorprogrammierten Rahmens, sonst wäre er Drill. Trotzdem beruht das Tanzen nicht alleine auf Spontanität. Rhythmen und Regeln müssen beachtet, Muster generiert und gelernt werden. Ein Tanz ist dabei stets offen, adaptiv, dynamisch-umweltlich und veränderlich. Der Tanz kann es dadurch mit dem Drill aufnehmen, ihn verflüssigen und verflüchtigen. Tanzen kann sich dementsprechend der reinen Kontrolle und damit der Kommodifizierung entziehen.

Tanzen bildet, so mein Vorschlag, ein adäquates Gegenmittel, um der unmenschlichen, der nicht-humanen Digitalität und ihren technologischen Einschließungen und Landnahmen, die im Namen der Vermarktung und Verwertung alles Weltlichen entstehen, zu begegnen und sie in etwas anderem aufzuheben. Algorithmen lassen sich auch tanzen. KommOnistische Kooperativität lässt sich als Kontra-Tanz tanzen. Das ist weniger eine Metapher als wortwörtlich gemeint. Wir müssen der kapitalistischen Digitalität als künstlich-unmenschlichem Gefüge auf künstlerische Weise, das heißt tanzend begegnen: erstens weder rein affektiv noch rein diskursiv, sondern beides gleichzeitig, und zweitens mit simulativ-modellierenden, maschinell-fiktiven, imaginierenden, träumenden und entwerfenden Operativitäten, und als affektiv-technologisches Gefüge des Kontra-Algorhythmischen. Dafür ist eine Haltung Bedingung in der Technomathematik, Algorithmik und Rhythmik, das heißt das Abstrakt-Symbolische, das Zeit-Räumlich-Materielle und das Lebendige zusammen kommen und miteinander tanzen. Digitalität, die im Rahmen einer kommOnistischen Kooperativität operiert, müsste lebendig und gleichzeitig künstlerisch-poetisch, präfigurativ vorausschauend werden, was für unser aller Zukunft von enormer Bedeutung sein wird. Der Signalweg zum Tanzen geht tatsächlich zuerst einmal über die Ebene der Neurophysiologie.

DAS AFFEKTIV-SOMATISCHE

»Affekte […] sind die Hüter, des Sich-Nie-Schließens« 107 beschreibt die Medienwissenschaftlerin Marie-Luise Angerer (*1958) poetisch die Übergangszonen zwischen der physiologischen Wahrnehmung und dem kognitiven Bewusstsein. Für den Tanz einschlägig ist ihr Gedanke, dass die »Taktung des Maschinischen […] die Bewegung des Psychisch-Organischen […] nicht 100% trifft«,108 sondern die beiden Prozesse erstens durch das Affektive vermittelt werden und es dabei zweitens auch zu Störungen und Verzögerungen kommen kann.

Brian Massumi (*1956), nordamerikanischer Philosoph, Übersetzer von Deleuze-Guattari und Diskursstifter poststrukturaler Affekt-Theorien, unterschied in The Autonomy of Affect, erschienen 1995, Emotion und Affekt dahingehend, dass Emotionen soziolinguistisch beschreibbar sind, Affekte jedoch subdiskursiv als rhythmischer Wechsel von Intensitäten erfahren werden. Weil Emotionen sprachlich beschreibbar sind, wären sie Eigentum, während Affekte unbeschreibbar, unbesitzbar und damit gewissermaßen enteignet wären.109 Affekte lassen sich schwer erkennen und beherrschen. Sie sind flüchtig und haben so verstanden einen Eigensinn, der gleichzeitig auch eine Öffnung zur Umwelt bietet. Nur mit Hilfe von Medien, die unterschwellige Nervensignale und andere Vorgänge im Körper speichern und vermessen können, wurden Affekte beschreibbar und schließlich untersuchbar.

Das Affektiv-Somatische bildet den Untergrund einer sozialen Kooperativität, eine »soziale Poetik«, die die Black Studies-Aktivisten und Schriftsteller Fred Moten (*1962) und Stefano Harney (*1962) Undercommons nennen und die einen Prozess meint, »in dem kontinuierlich unteilbare Differenzen geschaffen werden.« 110 Dabei gilt es, »eine Sozialität um das Unwertbare herum zu strukturieren und keine politische Ökonomie, die absolut von Werten bestimmt wird.« 111 Mit Undercommons ist eine Kritik im Untergrund, etwa auch der Universität, gemeint, die nicht auseinander nimmt, isoliert und professionalisiert, sondern zusammen bringt und Solidarität generiert. Eine etwas unheimliche Operativität,112 die auch in unterschwelligen, affektiv-somatischen Netzwerken wirkt.

Die Grundlagen für Massumis Affekttheorie sind, zumindest in der Version, die 1995 veröffentlicht wurde, verdeckt.113 Erst in den 2000er-Jahren reicht Massumi eine Quelle nach, die zu Forschungen des US-Amerikanischen Neurophysiologen Benjamin Libet (1916–2007) aus den frühen 1980er-Jahren führt, die wiederum auf ältere Experimente aus den 1960er- und 1970er-Jahren hinweisen.114 Das Zusammentreffen von Neurophysiologie und einer entstehenden Theorie des Affekts durch Massumis Rezeption der Libetschen Experimente nahm der Medienwissenschaftler und Guattari-Experte Henning Schmidgen (*1965) zum Anlass, sich der Geschichte dieser »Hirn-Zeit-Experimente« und ihrer »Forschungsmaschinen«115 zu widmen. Dabei ging es ihm um die Wissensgeschichte von Zeitverhältnissen, Verzögerungen, Bereitschaftspotentialen, sensomotorischen und neurophysiologischen Signalen. Das Affektiv-Somatische ist voller Rhythmen. Dies hat bereits der Physiologe Hermann von Helmholtz (1821–1894) um 1850 experimentell erforscht:

»Es wird einem Menschen ein ganz leichter electrischer Schlag an irgend einer beschränkten Hautstelle beigebracht, und derselbe ist angewiesen, wenn er den Schlag fühlt, so schnell es ihm möglich ist, eine bestimmte Bewegung mit der Hand oder den Zähnen auszuführen, durch welche der zeitmessende Strom unterbrochen wird.«116

Die Verzögerung- und Signallaufzeiten im menschlichen Körper und Nervensystem, die Helmholtz ermittelte, lagen zwischen 125 und 200 Millisekunden.117 Experimentalsysteme der Zeitmessung neuronaler Signale sind seitdem fester Bestandteil der Neurophysiologie. Etwa 100 Jahre später, in der Blütezeit der EEG-basierten118 und mit Analogelektronik119 ausgerüsteten Gehirnforschung, gelingt es den deutschen Neurowissenschaftlern Hans Helmut Kornhuber (1928–2009) und Lüder Deecke (*1938) ein elektrophysiologisches Phänomen des Gehirns zu messen, das sie Bereitschaftspotential nannten. Die neurophysiologischen Grundlagen für Massumis Affekttheorie, die Libet lieferte, sind Diskurseffekt einer mehr als 100 Jahren älteren Medien- und Wissensgeschichte neurologischer Experimentalsysteme, die mitunter auch mit der Geschichte der Kybernetik verschränkt ist.120

In den frühen 1980er-Jahren kam es durch Libet zur seltsamen Renaissance der Frage nach dem subjektiven und freien Willen, die viele Physiologen seit längerem nicht zu stellen wagten. In Libets Forschungsmaschine ging es zwar immer noch um die Frage der Signallaufzeiten, nun aber mit Schwerpunkt auf dem bewussten, subjektiven Erkennen einer ›spontanen‹ Handbewegung: Die Testmessungen zeigten, dass zuallererst im EEG Bereitschaftspotenziale messbar wurden. Nach durchschnittlich 300 Millisekunden folgte der von den Proband:innen memorierter Zeitpunkt ihrer spontanen Handbewegung, den sie mittels einer computergesteuerten Uhr visuell ermitteln sollten. Zuletzt wurde nach durchschnittlich weiteren 200 Millisekunden die Handbewegung als solche messbar. Vom Bereitschaftspotenzial bis zur Handbewegung dauerte es insgesamt 500 Millisekunden und dazwischen befand sich der Zeitpunkt, an dem sich die Proband:innen erinnern, spontan ihre Hand bewegt zu haben.121

Libet verfolgte die Frage, wie eine spontane, freiwillige Handlung im Gehirn entsteht und führte das subjektive Urteil der Testperson als Messwert wieder ein. Er ging davon aus, dass, wenn eine bewusste Intention oder eine Entscheidung eine freiwillige Handlung initiiert, diese als subjektive Erfahrung dieser Intention oder Entscheidung den entsprechenden neuronal-zerebralen Prozessen vorausgehen oder zumindest gleichzeitig mit diesen geschehen müssten. Libets Experiment zeigte das Gegenteil: Eine freiwillig durchgeführte, spontane Handbewegung, kann von unbewussten Gehirnprozessen (Bereitschaftspotenzial) initiiert werden, noch bevor diese Handbewegung merklich wird.122 Sein Fachartikel wurde durch zahlreiche Kommentare von Neurolog:innen, Physiolog:innen, Psycholog:innen insgesamt etwa im doppelten Umfang ergänzt: Während die Messergebnisse von den meisten Fachkolleg:innen nicht kritisiert wurden, waren es vor allem Libets Implikationen, die kontrovers diskutiert wurden. Dabei wären Selbstbeobachtung und subjektive Erinnerung keine adäquate Methoden für neurophysiologische Erkenntnisse. Die Unterscheidung von bewussten und unbewussten Erfahrungen sei veraltet. Viele motorische Prozesse liefen quasi automatisch-unbewusst ab nachdem sie angelernt wurden. Eine Generalisierung sei nicht möglich, weil unterschiedliche Wahrnehmungsmodi andere Signallaufzeiten hätten. Der Freiburger Neurophysiologe Richard Jung (1911–1986) kommentierte:

»I agree with Libet that the conscious will mainly selects and controls our action and that unconscious preparatory celebral mechanisms are important. I doubt Libetʼs assertion, however, that the subjectʼs will does not consciously initiate specific voluntary acts.« 123

Der Finnische Neurologe Risto Näätänen (*1939) ergänzte dementsprechend, dass es fragwürdig sei, isolierte Formen von Spontanität messen zu wollen. Die Versuchsteilnehmer:innen wären schließlich vorher instruiert worden, Handbewegungen durchzuführen, und damit hätten sich diese doch bewusst darauf einstellen müssen. Es würde daher nur um das Timing einzelner Bewegungen, die aber nicht völlig losgelöst zu betrachten sind, gehen. Hier zeigt sich vielleicht Libets latent bürgerlich-liberales Epistem, denn warum sollte es so wichtig sein, Spontanität und positivistische Freiheit im Sinne einer liberal-bürgerlichen Just-Do-It-Mentalität wissenschaftlich untermauern zu wollen? Wenn selbst ein Zucken nicht spontan und freiwillig erzeugt werden kann, dann zeigt dies, wie wichtig das vorsichtige und sorgfältige Anlernen eines solidarischen Tanzens im Alltag wird, das genau nicht aus revolutionären Zuckungen besteht, sondern vielmehr aus einer wohlüberlegten, mühsam angelernten, aber adaptiv transformierbaren Organisation und Operativität, die jedoch gleichzeitig stets offen für das Unbewusste und Affektiv-Somatische sein müsste. Dass der ehemalige Umwelt- und Antiatomkraft-Aktivst und Liberalismuskritiker Massumi sich für diese Experimente interessierte, ist wohl alleine dem Umstand geschuldet, dass die Frage nach dem freien Willen auf breites Interesse stieß und Libets Experimente so erst bekannt wurden. Hier hilft die 15 Jahre später formulierte Kritik der US-Amerikanischen Wissenschaftshistorikerin Ruth Leys (*1939), die Massumi vorwirft, Affekt und Ideologie strikt zu trennen,124 was selbstverständlich ein Missverständnis war. Affekte nach Massumi sind autonom in dem Sinne, dass sie sich erst einmal unmerklich im Körper einzelner Individuen, aber auch in Gruppen und als Bewegung verbreiten125 und dabei gleichzeitig Ideologien beeinflussen können.126 Dementsprechend lautet das Ende von Autonomy of Affect:

»The ability of affect to produce an economic effect more swiftly and surely than economics itself means that affect is itself a real condition, an intrinsic variable of the late-capitalist system, as infrastructural as a factory. Actually, it is beyond infrastructural, it is everywhere, in effect. […] It is transversal. This [...] needs to be taken seriously into account in cultural and political theory. Donʼt forget.« 127

Das Rumoren im Untergrund des offensichtlich Zugänglichen, das heißt im Affektiv-Somatischen, muss ernst genommen werden, weil wir ohne Widerstand gegen die enormen Wellen und den unerträglichen Lärm der Affektproduktion profitorientierter Dispositive und Firmennetzwerke von diesen schnell affiziert, moduliert und transformiert werden. KommOnistische Kooperativität muss also bereits hier, im Affektiv-Somatischen, im Untergrund der flüchtigen Signale ansetzen und operativ werden. Dabei ergeben sich unerwartete Inspirationsquellen, wie etwa die Wissensfelder ›Lernen‹ und ›Kognition‹.

TANZEN LERNEN

Moten und Harney bezeichnen die Gefahr der affektiv-somatischen Ansteckung als synaptische Arbeit. Eine Arbeitsweise, die den Schlägen, den Beats, des profitgetriebenen-kolonialen Algorhythmus128 und dem Zwang des »logistischen Kapitalismus« nicht nur gehorcht und folgt, sondern ihn auch verbessert und optimiert.129 Während Moten und Harney den Algorithmus nicht falsch schreiben – das überlassen sie scheinbar mir –, artikulieren sie die Logik des Sachzwangs der automatischen Kapitalvermehrung G-W-G+ als 500 Jahre alten Rhythmus, der durch den Algorithmus der digitalen Codes, den sie »zero-one / one-two« nennen, beschleunigt wurde und setzen dagegen den Algoriddim. Riddim meint in der jamaikanischen Tanzmusik den nichtvokalen Untergrund eines Lieds. Dementsprechend meint Algoriddim den Untergrund algorithmischer Rhythmen, aber im Sinne eines Kontra-Tanzes, als »contact improvisation violence to the zero-one /one-two, a disruption of its protocols […]«.130 Algoriddim soll die Protokolle des Brattonʼschen Stack und damit die unzumutbare Operativität profitorientierter Systeme zum Tanzen bringen! Worin besteht nun aber die vielversprechende Operativität, die der Algoriddim als Tanz bietet?

Grob formuliert, geht es beim Tanzen um die Vermittlung von Subjekt und Umgebung,131 die gleichzeitig Körperwissen generiert. Tanzen ist eine mehrere Gehirnregionen umfassende bioelektrische »Signalmusik«.132 Die Portugiesische Tänzerin und Tanzwissenschaftlerin Cecília de Lima Teixeira weist dem Tanzen eine intensivierte propriozeptive Fähigkeit zu, die zu einem »central, coordinating tool of self-consciousness« 133 wird. Die Neurowissenschaftlerin Julia F. Christensen definiert Tanzen als Instandhaltung unserer psychobiologischen und mentalen Gesundheit mit eindeutigen positiven Effekten wie das Ausschütten von belohnenden Neurotransmittern (Endorphine, Opioide), die die Immunreaktivität erhöhen.134 Die Förderung der spielerischen Imagination, der Lernfähigkeit, der Kommunikationsfähigkeit und die Erhöhung der Selbstbeobachtung und -kontrolle des Affektiv-Somatischen und des sozialen Zusammenhalts wären weitere positive Aspekte des Tanzens.135 Dagegen gäbe es durchaus auch negative Effekte wie die körperliche Erschöpfung, eventuelle Verletzungen, hoher Kalorienbedarf oder Unachtsamkeit bei Gefahr,136 doch überwiegen die positiven Effekte, denn sonst wäre Tanzen als Praktik und Ritual bereits im Zeitalter des archaischen Homo sapiens längst aufgegeben worden.

Tanzen bildet eine kooperative Handlung, die eine Interkorporalität,137 ein soziales, lernendes, solidarisches Bewegungsgefüge zeitigt. Für die Tanzwissenschaftlerin Gabriele Klein (*1957) macht Tanz »Individualisierung, Kollektivierung und Vergemeinschaftung körperlich sichtbar«, aber auch erfahrbar. Dabei werden »soziale Mechanismen wie Macht und Kontrolle, aber auch Protest und Widerstand körperlich realisiert«,138 und »gesellschaftliche Verhältnisse kommentiert und reflektiert.« 139 Einschlägig für den Kontra-Tanz, den kontra-algorhythmischen Algoriddim bezeichnet Klein Tanz als »körperliche ›Einübung‹ in neue soziale Interaktionsformen und Kommunikationsmuster«.140 Tanzen involviert ein polyphones Ensemble aus Körpern (Menschen, Klangkörper), Stimmen, Schwingungen, Stimmungen und Bewegungen. Die Kanadische Philosophin und Tanzwissenschaftlerin Erin Manning (*1969) beschreibt Bewegung folgendermaßen:

»Despite appearances, movement is not of a body. It cuts across, co-composing with different velocities of movement-moving. It bodies.« 141

Die Idee einer Bewegten-Bewegung kommt dem Signal, der Welle und Schwingung sehr nah. So verstanden, ist Tanzen die verkörperte Zeitigung neurophysiologischer Signale durch Körper. Mikrobewegungen und Mikroperzeptionen passieren laut Manning »through not just the composing body but also the vibrating space of thought.«142 Beim Tanzen komponiert nicht nur der Körper, sondern es entsteht ein vibrierender Denkraum, der Form und Macht (force)143 miteinander koppelt und informiert.

Das Wissensfeld des motorischen Lernens befasst sich mit den neurophysiologischen Prozessen, die beim Lernen von Bewegungsabläufen im Spiel sind. Laut einem neurowissenschaftlichen Review-Paper besteht das motorische Lernen aus einer Kombination von implizitem, affektiv-somatischem, unbewusst prozeduralem und explizitem, das heißt symbolisch-sprachlich-erklärendem Lernen. Explizite Instruktionen, Regeln und Muster spielen vor allem für das Erlernen neuer Bewegungen, die später verinnerlicht und quasi automatisch ablaufen eine wichtige Rolle:

»Even if the endpoint of learning is an implicit, procedural skill, the process of arriving at that skill is, in most cases, a richly cognitive enterprise, building on instruction, imitation, and moments of insight.« 144

Beim Tanz sind es sowohl sprachliche als auch nicht-sprachliche Signale (Sound, Taktilität  /  Haptik, Licht etc.) und Körperbewegungen, die auf den Lernprozess einwirken können. Und oft wäre dabei das Ziel, den gelernten Prozess zu einem automatischen Prozess zu verinnerlichen. Während explizite, externe semantische Signale unterbrechend, reflektierend wirken, scheinen implizite, affektiv-somatische Signale eher für synthetisierende Effekte und mentale Automatisierung zu sorgen.

Die sensomotorische Synchronization, das heißt die Koordination rhythmischer Körperbewegungen mit einem externen Takt,145 auch Rhythmusgefühl genannt, bildet ein einschlägiges Beispiel: Wie durch zahlreiche Experimente und Studien belegt ist, sind beim menschlichen Fingerklopfen mit einem Metronom Antizipationsfehler von bis zu 50 Millisekunden beobachtbar.146 Das heißt, ohne Übung tendieren Menschen bei solchen Experimentalsetups dazu, immer schneller klopfen zu wollen. Professionelle Musiker:innen schaffen es jedoch, durch langjähriges Lernen ohne Antizipationsfehler gleichmäßig zu klopfen. Ungelerntes Tanzen verliert sich schnell in einer positiven Feedback-Schleife, deren Ende zur Energiefrage wird. Gelerntes Tanzen zeigt sich in Selbstkontrolle und dem Einsatz von Unterbrechung und weiß mit solchen Effekten zu spielen.

Tanzen ist eines der besten Beispiele für das Zusammenspiel von Motorik, Gedächtnis, Wahrnehmung, Handlung, Perzeption und Prädiktion. Gerade für das Tanzen-Lernen gilt, dass die Mustererkennung, das heißt das Sammeln von Erkenntnissen in Kombination mit Körperbewegungen erfolgreicher ist als das passive Sammeln von Wissen ganz ohne Motorik. Die Kopplung von Perzeption und Aktion bei Lernprozessen in Gehirn und Körper ist nicht nur für die Motorik, sondern auch für die Sprech- und Sprachfähigkeit basal.147 Dabei spielt nach neueren Erkenntnissen in den Kognitionswissenschaften auch die Vorhersage eine wichtige Rolle.

ZUKUNFT ÜBEN

Andy Clark (*1957), Neurophilosoph und Mitglied der British Academy, beschreibt Perzeption nicht als passiven, sondern als aktiven, generativen Akt, bei dem neue sensorische Signale mit Vorhersagen beantwortet werden, die auf bereits gesammelten Sinneserfahrungen beruhen.148

»At the heart of the process lies a probabilistic generative model that progressively alters so as better to predict the plays of sensory data that impinge upon a biological organism or artificial agent.« 149

Es seien bei der Perzeption-Prädiktion ausgeklügelte, generative Modelle im Spiel, die ständig proaktiv aktualisiert werden und die kategorischen Grenzen zwischen Befehlen und Prognosen verschwimmen lassen.150 Weil dieser Ansatz selbst wiederum ein Beschreibungsmodell bildet, oszilliert es als Modell zwischen biologischen Organismen und künstlichen Agents.

Nicht zufällig zeigte deshalb die Medien-, Theater- und Tanzwissenschaftlerin Martina Leeker (*1959), dass seit einigen Jahrzehnten, spätestens durch die Arbeiten des Choreografen Wayne McGregor (*1970) in den 2000er-Jahren ein Kurzschluss der kognitiven Wissenschaften und der Neurophysiologie mit dem Tanz statt fand. McGregor vollzog mit seinen Tanzgenoss:innen, Modellierungen »in actu, gleichsam am lebendigen Leib der involvierten Menschen, an den Dingen und technischen Agenten [...]« 151 Tanzen sei Modellieren im Vollzug. Automatismen erfuhren dementsprechend aus der Perspektive des Tanzens betrachtet eine positive Umwertung.152 Zugespitzt formuliert, wurden dadurch die gelernten, generativ-affektiv-somatischen Automatismen, die in harter Arbeit durch die Tänzer:in zur Gewohnheiten trainiert wurden, mit den algorhythmischen Automatismen digitaler Software-Modellierungen gleichgesetzt. Mit der Gegenüberstellung, aber auch Synthese, einer Gruppe von lernenden und übenden Tänzer:innen als menschlichen Agent:innen einerseits und Software als System aus algorithmischen Agent:innen andererseits, wird Tanzen zur idealen Domäne für die Programmierung von »Agentensystemen« und die »Herstellung einer kognitivistisch optimierten Umwelt.«153

Beim Tanzen entstehen vielschichtige, multimodale und -temporale Modelle der Rezeption, Vorhersage und Aktion im Gehirn und Körper, die durch Übung und Lernen schließlich Bestandteil körperlicher Automatismen werden. Dabei spielen sowohl explizit-semantisch-diskursive Anweisungen als auch implizit-affektiv-somatische Prozesse, Signale und Atmosphären ihre Rollen. Darüber hinaus zieht sich die Bewegung durch die Körper und die Umgebung aller Beteiligten hindurch. Massenbewegung kann operationalisiert werden. Das Feld der transdisziplinären Robotik versucht indes, dies alles nachzuprogrammieren, was mittlerweile auf unheimlich gute Weise zu gelingen scheint, doch statt diesen Siegeszug stupider und billiger Art digital zu tanzen, zu bestaunen und ihm zu unterliegen, soll es hier vielmehr um die Frage gehen, wie wir selbst das Digitale für uns tanzbar machen könnten.

Einige der potentiellen Wege liegen bereits offen: Während klar ist, dass wir Programmieren lernen, statt nur Befehle auszuführen, eigene Netzwerke, Infrastrukturen, Systeme, Geräte und Maschinen herstellen, pflegen und reparieren müssten, bleibt ein Gesamteindruck davon, wie die kommOnistische Kooperativität sich rhythmisieren und konkretisieren könnte, noch weit entfernt. Dementsprechend sollten wir für die zu realisierende, solidarische Kooperativität genug Vorwissen ansammeln und aus dem Wissen (aus der Kognitionswissenschaft und der Neurophysiologie), dass beim Tanzen diese generativen Modelle im Gehirn und Körper nicht nur agieren oder reagieren, sondern vielmehr vor allem aktiv prognostizieren auch Konsequenzen ziehen: Um Digitalität tanzen zu können, müssten wir folglich alle beginnen zu lernen, proaktiv Vorhersagen zu machen und Prozesse zu modellieren, das heißt Zukunft zu üben!

Der Medienwissenschaftler Claus Pias (*1967) nennt jene Zukunftsgeschichten, die Computermodelle generieren, in Anlehnung an die RAND Corporation »synthetic history«. Die synthetische Geschichte tritt stets »in einem Bündel von Möglichkeiten« auf.154 Das Zukunftswissen oder das »Wissen der Simulation« wie Pias es nennen würde,

»ist immer mit einem hypothetischen Index versehen und, indem etwa verschiedene Leute das gleiche Problem verschieden modellieren und simulieren, entsteht eher ein unhintergehbares Spektrum an Meinungen und Auffassungen als eine Gewissheit.« 155

Kontra-Algorhythmische Zukünfte müssten dabei das Bündel und Spektrum an Informationen, Potentialen, Meinungen, Fiktionen, Erklärungen und Interpretationen offen halten und experimentell-künstlerisch erforschen. Frei nach dem österreichisch-amerikanischen Kybernetiker Heinz von Foerster (1911–2002) ist Information hier weder Substanz noch Ware,156 sondern ein offener, nie endender, adaptiver Prozess. Die Kommodifizierung von Information gehe, genereller betrachtet mit einer Trivialisierung der Zukunft einher, die zu ihrem Verlust führe, wie er bereits in den 1970er-Jahren artikulierte:

»with a future not clearly perceived, we do not know how to act with only one certainty left: if we donʼt act ourselves, we shall be acted upon.« 157

Der Verlust der Zukunft sei der ultimative Effekt der Trivialisierung, die zuallererst auf dem Prinzip der Reduktion, Effizienzsteigerung und Optimierung beruht.158 Wie Foerster diagnostizierte, wäre in der US-Amerikanischen Gesellschaft bereits fast alles in triviale Maschinen, das heißt in linear-deterministische Algorithmen, die leicht vorhersehbar und kontrollierbar wären, umgewandelt. Zukunft zu üben würde demgegenüber auf nicht-triviale, nicht-deterministische159 Maschinen, Algorithmen und Arbeit setzen, die dabei als »troublemaker« 160 operieren sollen. Es ist also die Diversität der Gemengelage und das Problematische, das in nicht-trivialen Modellen steckt und das es zu erhalten gilt.

Während die kalifornische, psychedelisch-kybernetisch inspirierte Gegenkultur161 und die darauf aufbauende Heimcomputerkultur trotz der Selbstaneignung der informationellen Produktionsmittel sich der Trivialisierung durch den Automatismus des Kapitals nicht entziehen konnte, und das, obwohl einige sicherlich auch die Arbeiten Heinz von Foersters kannten, finden sich beim US-Amerikanischen Mathematiker und Informatiker Seymour Papert (1928–2016) einige für Digitalität tanzen einschlägige Ansätze: Papert wuchs in Johannesburg (Südafrika) auf, studierte und promovierte dort in Mathematik und in den 1950er-Jahren nochmals in Cambridge, England. Er schrieb zwischen 1956 und 1958 regelmäßig für die Zeitschrift Socialist Review, lebte in London und war Anti-Imperialist, Sozialist und Aktivist.162 Später forschte Papert in Genf beim Entwicklungspsychologen Jean Piaget (1896–1980). 1963 zog es ihn zum Massachusetts Institute of Technology in Boston, wo er mit Marvin Minsky (1927–2016) kollaborierte und die Programmiersprache Logo entwickelte.

Logo war vor allem für Kinder und Jugendliche ausgerichtet und sollte nach Papert das spielerische Eintauchen in die Welt der Mathematik ermöglichen. Kernkonzept war ein programmierbarer Zeichenstift, dessen Spur und Arbeit auf der Bildschirmoberfläche sichtbar wurde. Der Stift wurde oft auch als Schildkröte, Turtle, bezeichnet, weil sich Papert an älteren mobilen Roboterfahrzeugen, wie jenen des US-amerikanisch-britischen Kybernetikers William Grey Walter (1910–1977), orientierte und diese auch nachbaute.163 Interaktive Umgebungen wie Logo würden Mikrowelten164 für Kinder bieten, die für das Erlernen einer Programmiersprache ähnliche Wirkung zeitigen würden wie ein Sprachaufenthalt in einem fremdsprachigen Land für das Erlernen natürlicher Sprachen.165 Auch nicht-diskursive Varianten des Lernens sollten operativ werden, und hier kommt das Tanzen ins Spiel. Papert vergleicht die Aktivität des Tanzens mit der technomathematischen Operativität der Logo-Umgebung und sieht brasilianische Samba-Schulen mit ihrer Kultur der Solidarität und ihren flachen Hierarchien als Vorbild.

»LOGO environments are like samba schools in some ways […] [I]n them mathematics is a real activity that can be shared by novices and experts. The activity is so varied, so discovery-rich, that even in the first day of programming, the student may do something that is new [...] to the teacher.« 166

Während Papert zugibt, dass die Logo-Umgebung um 1980 noch nicht ausgereift genug ist, um dies alles zu konkretisieren, hofft er gleichzeitig, dass die »computational samba school« 167 in baldiger Zukunft Wirklichkeit wird. Er ist damit ein starker intellektueller Verbündeter für das Kontra-Algorhythmische, den Algoriddim und die närrische Idee, Digitalität zu tanzen. Paperts ultimatives präfiguratives Ziel war es, die Sensomotorik eines Kindes für das Programmieren-Lernen zu aktivieren.168 Kinder sollten so Digitalität-Tanzen lernen. Darüber hinaus würden ein Computer und die Mikrowelten, die Logo generieren könnte, dem Kind helfen, Intuitionen und Annahmen zu externalisieren, gleichzeitig zu beobachten und schließlich zu verinnerlichen. Nach Papert könnten dementsprechend die mit Modellierungen oft entstehenden Verstärkungseffekte einprogrammierter Vorurteile (Biases) oder falscher Annahmen sicht-, spür- und messbar gemacht werden, womit diese negativen Effekte nicht nur der Reflexion zugänglich, sondern auch iterativ veränderbar werden.169 Mit diesen Ansätzen zu Beginn der 1980er-Jahre war Papert diskursstiftend und prägte zahlreiche Arbeiten der Computerpädagogik.

Projekte wie Logo sind gleichzeitig auch in diskursive Transformationen eingebettet. Wirkmächtig war hier der Wechsel von der strukturierten zur objektorientierten Programmierung, die der Informatiker und Kulturhistoriker Jörg Pflüger (*1948) einschlägig beschrieb. Während bis Ende der 1960er-Jahre Algorithmen und Software von Experten geschrieben und eine »Empathie mit dem maschinellen Leser«,170 das heißt mit der Hardware, bedingten, entstand durch die Kommerzialisierung der Softwareproduktion ein Zwang zur Optimierung und Profitsteigerung, was letztendlich zur Industrialisierung des Programmierens führte. Dadurch kam es in den 1960er- und 1970er-Jahren zu einer Abwertung der Programmier:in »vom Künstler zum Sachbearbeiter«171 und der Zunahme fabrikähnlicher, hierarchischer Arbeitsorganisation172 sowie Zuständen wie sie bereits in Computerfabriken des 18. Jahrhunderts vorherrschten.173 Das Aufkommen der objektorientierten Programmierung spätestens um 1980 ging dementsprechend mit Versuchen einher, die Programmierarbeit wieder zu dezentralisieren, zu enthierarchisieren und zu modularisieren. Mit dem komponentenorientierten Bottom-up-Vorgehen174 gingen gleichzeitig zunehmende Anforderungen einher, die vor allem im Wissensfeld der Simulation und Modellierung greifbar wurden. Hier kam SIMULA auf, eine der ersten objektorientierten Programmiersprachen, die in den 1960er-Jahren in Norwegen entwickelt wurde. Dazu erklärt Pflüger:

»Der Umgang mit Simulationen erfordert, daß man die Folgen getroffener Entscheidungen ausprobieren, mit Alternativen experimentieren und das zugrunde gelegte Modell sukzessive verfeinern kann.« 175

Dafür musste die baumartige Blockstruktur älterer Programmiersprachen wie ALGOL in vernetzte, operative Einheiten, die aktiv oder im Wartezustand sind und miteinander interagieren können, zerlegt und temporalisiert, das heißt algorhythmisiert werden. Die US-amerikanische, zu ihrer Zeit sehr populäre Computerzeitschrift Byte widmete 1981 eine umfassende Spezialausgabe unter dem Titel Smalltalk der am kalifornischen Xerox Palo Alto Research Center entwickelten objektorientierten Programmiersprache. Smalltalk ist eine Software, um Software zu programmieren, und gleichzeitig eine formale Sprache mit objektbasierter Systematik. In ihrer künstlichen Welt haben Objekte Namen und können Nachrichten in Form von einfachen Daten wie Zahlen, Buchstaben oder binärlogischen Zustandswerten empfangen, die sie nach einem Algorithmus prozessieren. Durch das Senden von Nachrichten an Objekte werden sie gezeitigt. Objekte können darüber hinaus, wenn dafür programmiert, eine Nachricht wieder ausgeben. Die Beschreibung eines Objekts wird Klasse genannt, während das, was im Objekt operativ passiert, Methode genannt wird. Objekte sind Instanzen einer einzigen Klasse. Eine Methode ist, das, was ein Objekt leistet, arbeitet, prozessiert und produziert. Wenn ein Objekt eine Nachricht empfängt, dann wird seine Methode ausgeführt. Durch diese Konfiguration lässt sich ein komplexes, dezentrales Netzwerk von Algorithmen programmieren, worin zwar ein Rahmenalgorithmus regelt, wann oder unter welchen Bedingungen welche Klasse als Objekt wie aufgerufen und später gelöscht werden soll, was die Objekte jeweils tun und können, wird aber in den Klassen beschrieben.176 Damit lässt sich Software erstens einfacher entwerfen, ausprobieren, testen und variieren, zweitens wurde dadurch die Entstehungsbedingung agentenbasierter Modellierung gelegt.

Mindestens zwei weitere historische Szenen der 1980er-Jahre wären für eine Genealogie von Digitalität tanzen wichtig. Erstens: Im Umfeld von Hollywood und der gerade emergierenden Computergrafikindustrie entstehen erste Simulationen von Vogel- oder Fischschwärmen durch Craig W. Reynolds (*1953),177 die weitere komputatorische Modelle komplexer Bewegungsmuster sich selbstorganisierender Herden, Schwärme und Wolken inspirieren. Zweitens und viel wichtiger noch: Durch den US-Amerikanischen Informatiker Philip E. Agre fand das Konzept der Improvisation und des situierten Agents Einzug in die Informatik.178 Agre versuchte in seiner Dissertation The Dynamic Structure of Everyday Life, verteidigt 1988 am MIT Artificial Intelligence Laboratory, alltägliche Aktivitäten, die er auch Routinen nannte, aus einer informatischen Sicht zu formalisieren. Improvisation und situtiert-adaptives interaktives Operationalisieren setzte er dabei von fixiert-statischen Algorithmen – frei nach Foerster: triviale Maschinen – ab: »Routine, is not a matter of mechanically following a plan.« 179 Um Alltagshandlungen wie den Weg zum Bahnhof algorithmisch zu erfassen beziehungsweise Systeme zu programmieren, die die nötige Operativität algorhythmisch zeitigen können, müsste man nicht rekursiv analysieren, skalieren und schließlich zentral hierarchisieren, sondern die Operationalisierung alltäglicher Abläufe müsste durch ein sich kontinuierlich aktualisierendes System nicht nur »metabolisch«, sondern auch interaktiv-sensorisch situiert und damit aus einer dezentralen Bottom-up-Perspektive entworfen werden.180

Um dies alles zu demonstrieren, programmierte Agre in Kollaboration mit David Chapman ein System, dass sie Pengi nannten. Pengi bildete ein Gegenmodell zu Pengo, ein auf dem Boden stehender Arcade-Spielkasten der japanischen Firma Sega aus den frühen 1980er-Jahren. Pengo wurde von Chapman nach-programmiert und bildete die Umgebung, die Welt, in der Pengi agierte. Pengi war für Agre der Prototyp, die informatische Demonstration, das heißt Präfiguration eines improvisierenden »situated agent«.181 Im Arcade-Spiel Pengo kann die Spieler:in eine Penguin-Figur mittels eines Joysticks auf einem zweidimensionalen Spielfeld mit Labyrinthkorridoren bewegen, dabei wird der Penguin von stechenden Bienen verfolgt. Beim Stich ist das Spiel beendet. Sowohl Bienen als auch die Spielfigur können die Wandteile der Korridore als Geschoss wegstoßen und dadurch Gegner beseitigen. Ziel der Spielfigur ist es, die Bienen zu beseitigen. Die Spieler:in, wir würden sie auch Operator:in oder Arbeiter:in nennen, muss Strategien entwickeln, um zu gewinnen. Agre und Chapman programmierten zu Pengo ein Gegensystem, das sie Pengi nannten.

Pengi konnte die visuell sichtbaren Zustände auf dem Spielfeld, das heißt die Bewegung der Geschosse und der Bienen nicht insgesamt, das wäre zu aufwendig gewesen, sondern nur im nötigen peripheren Umfeld erfassen. Eine simple Entscheidungslogik selektierte aus vorprogrammierten Bewegungsmanövern jene aus, die zu den peripheren, eingehenden Daten passen könnten und führte diese Bewegungen aus. Damit konnten Agre und Chapman ein System programmieren, das ›improvisierend‹ mit seiner sich ständig ändernden Umgebung interagiert. Anstatt ausgefeilte Weltmodelle zu erstellen und komplizierte Algorithmen zu konstruieren, verlässt sich Pengi bei der Organisation seiner Aktivitäten stark auf seine Interaktionen mit der Welt.182 Pengi bildet damit eine Präfiguration für einen kontra-algorhythmischen Tanz, kurz Kontra-Tanz.

Agres kritische Modellierung und spielerische Auslotung von Gegenmaßnahmen durch die Einnahme einer dezentralen Perspektive zeichnete sich darüber hinaus durch konzeptuelle Nähe erstens zur objektorientierten Programmierung, zweitens zu sensomotorisch-kognitiven Modellen und schließlich drittens – durch den Fokus auf Improvisation – auch zum Tanz aus. Das Potential des in den 1980er-Jahren relativ neuen Epistems dieser objekt-orientierten Gestaltung künstlicher Welten wurde spätestens in den 1990er-Jahren durch Papert-Schüler wie Mitchel Resnick (*1956) auf die neue Ebene der Modellierung nun nicht mehr eines einzelnen Agents, sondern, wie schon bei Reynolds, mehrerer Agent:innen, die aber pädagogisch reflektiert war. Damit konnten solche Modelle auch kontra-intuitive Dynamiken und nicht-lineare Kippvorgänge, das heißt auch nicht-triviale Maschinen erklären. Improvisation und Massenbewegung wurden damit zu konzeptuellen Nachbar:innen und fingen an, zu tanzen.

Die Synergien, die im Spannungsfeld zwischen der Kontakt-Improvisation per Algoriddim, frei nach Moten und Harney und den noch zu beschreibenden Kontra-Tänzen im Geiste kontra-algorhythmischer Multi-Agenten-Improvisation entstehen, dürfen nicht vernachlässigt werden, denn hier kommen wir allmählich zum Kern von Digitalität tanzen. Clark, der bereits erwähnte Neurophilosoph, artikulierte diese Möglichkeiten und Chancen schon in den frühen 2000er-Jahren, zu einer Zeit der allgemeinen Begeisterung für die damals ›neuen‹ Medientechnologien Internet und Computer, und dies anhand des Konzepts des »natural-born cyborgs«:

»Our biological brains, in concert with these new technologies, can thus grow into hybrid minds better able to understand the kinds of systems in which they themselves participate.« 183

Als konkretes Beispiel für ein hybrides Netzwerk aus Gehirn, Körper und neuen Technologien, die das Verstehen der gegenwärtigen, technologischen Systeme, an die wir angeschlossen wurden erleichtern würde, bildet laut Clark die vom MIT Media Lab und Resnick in den 1990er-Jahren entwickelte Programmiersprache und -umgegung StarLogo.

Während mit Logo nur ein einziger Zeichenstift, auch Turtle 184 genannt, programmiert werden konnte, wurde es mit StarLogo durch die konsequente Anwendung objektorientierter Programmierung möglich, einige 1 000 Agents als Softwareobjekte miteinander in einer künstlichen Architektur interagieren zu lassen. Im Gegensatz zur Modellierungssprache Stella,185 die aus dem Kontext der Systemdynamik186 stammte, würde StarLogo, wenn es etwa um ein Modell im Feld der Populationsdynamik gehen würde, nicht nur die aggregierte Dynamik, die zentral durch eine Funktionsgleichung187 operationalisiert wird, modellieren, sondern vielmehr die Dynamik einzelner Entitäten dezentral programmierbar machen.188 Mit StarLogo lässt sich nicht nur das Futtersuchverhalten von Ameisen, die Entstehung von Verkehrsstau, die Ausbreitung von Feuer in Wäldern oder auch die dynamische Konfiguration von Schwärmen modellieren, sondern es lässt sich damit jede denkbare tanzend umher fliegende Objektformation und die raumzeitliche Dynamik ihrer Interaktion auf der Ebene der Objekte vorprogrammieren.189 Dabei darf nicht vergessen werden, dass Modelle keine Probleme lösen oder Sachverhalte vereinfachen, sondern alles viel umfangreicher und komplizierter, jedoch mitunter auch nachvollziehbarer und verstehbarer machen können. Modelle haben einen Eigensinn. Gerade weil die Interaktion, das Tanzen der Agents programmierbar wurde, konnten Rückschlüsse auf die einzelnen vorprogrammierten Aktionsschemata und Gesamteffekte gezogen werden.

Die Agents wie Tänzer:innen zu behandeln, ist mitunter nicht nur eine Strategie, die professionelle Choreograf- und Tänzer:innen später verfolgten oder die bereits Ende der 1980er-Jahre bei Agre im Begriff ›Improvisation‹ anklang. Es darf nicht vergessen werden, dass die Operationalisierung agentenbasierter Modelle durch Menschen bereits direkt im Umfeld von Resnik und StarLogo erprobt wurde!

Die Idee, agentenbasierte Modelle durch Rollenspiele und Gruppenübungen körperlich situativ zu erfahren, zu erproben und einzuüben, um sie besser zu verstehen, kam vermutlich bereits früh während der Entwicklung von StarLogo auf und wurde, wie später von Resnick und Uri Wilensky (*1955) beschrieben, auch auf Konferenzen getestet. Die Gruppenübungen wurde mit spielerischem Gestus StarPeople genannt. Frei nach Clark bilden StarLogo und StarPeople ein hybrides Gehirn-Körper-Medien-Ensemble. Dabei galt das primäre Ziel dem Eintauchen in die Komplexität durch interaktive Bewegungsspiele, die im weitesten Sinne auch Tänze sind. Die einfachste und oft erste Übung für ein ad-hoc entstandenes Gehirn-Körper-Medien-Ensemble war die dezentrale Synchronisation durch Händeklatschen.190 Die nächste Übung war eine der dezentralen Kommunikation, das heißt der dezentralen, selbstorganisierenden Bildung von Gruppen in Netzwerken. Dazu wurde die Gruppe in sechs ungleichmäßig verteilte Untergruppen per Papierzettel eingeteilt, die an alle verteilt wurden. Jede Teilnehmer:in musste die eigene Gruppe, die durch eine Zahl zwischen 1 und 6 ersichtlich wurde, für sich behalten. Das Ziel jeder Übungsrunde war das Finden weiterer Gruppenangehöriger. Dazwischen wurden die Erfahrungen ausgetauscht und das Erlebte diskutiert. Die erste Runde begann ohne Einschränkungen. Die Gruppen formierten sich schnell, einige verkündeten laut hörbar ihre Gruppennummer. In der zweiten Runde wurde ein Sprechverbot eingeführt. Die Teilnehmer:innen begannen, sich gegenseitig die Zettel zu zeigen, zeigten Zusammenhalt und bewegten sich zusammen. In der dritten Runde wurden allen die Augen verbunden, gleichzeitig wurde das Flüstern erlaubt. Nun dauerte es sehr lange bis sich die Gruppen formierten, oft blieben einzelne Teilnehmer:innen übrig und fühlten sich verloren. Einige entwickelten Suchstrategien indem sie sich etwa die Hände hielten und dabei eine längliche Struktur bildeten, die ihnen erlaubte, den Raum schneller zu durchsuchen. Die drei Übungsrunden in denen unterschiedliche Situationen des Dispositivs, der Kommunikationsbedingungen etc. erprobt werden, dienen laut Resnick und Wilensky dem lernende Nachdenken über die Rolle zentraler, dezentraler oder lokaler Strukturen, des Zufalls, der Wahrscheinlichkeit, von Lernprozessen, der sensorisch-körperlichen oder medialen Bedingungen und der Effektivität oder auch Realisierbarkeit von Handlungen in bestimmten Konstellationen.191 Während die beiden hier beschriebenen Übungen der Kategorie der Rückwärtsmodellierung zuzuordnen sind, weil ein bestimmtes Endziel vorgegeben wurde, zeichnet sich die Vorwärtsmodellierung dadurch aus, dass zuerst die Regeln und Algorithmen der Agent:innen definiert werden und dann beobachtet wird, welche Dynamik sich daraus entwickelt. In der Übung dazu wurde die Gruppe in zwei gleich große Untergruppen (A, B) geteilt, die sich jeweils durch visuell sichtbare Elemente unterschieden. Alle mussten nun wieder eine Zahl zwischen 1 und 10 wählen und sich dann in diesen Gruppen (1, 2, 3, 4, 5, 6, 7, 8, 9, 10) formieren, dieses Mal waren sie etwa gleich groß, beispielsweise bei einer Teilnahme von 60 Personen: Sechs Personen in einer Gruppe. Nun beginnt die Übung. Jede der zehn Untergruppen entscheidet, welche Mitglieder sie ausschließen wollen. Kriterium dabei ist die visuell sichtbare Zugehörigkeit (A oder B), die als erstes ermittelt wird. Dabei gilt: Wenn mehr als zwei Drittel der Gruppe der gleichen Untergruppe angehören, das wären in dem Beispiel vier Personen, dann muss das restliche Drittel, das wären zwei Personen, die Gruppe verlassen und in benachbarten Gruppen wechseln. Dort beginnt der Prozess von vorne. Falls die Aufteilung in A oder B in eine Untergruppe gleichmäßig ist, das heißt je drei von A oder B, dann wird niemand ausgeschlossen und die Konstellation bleibt.192 Das etwas überraschende Gesamtresultat zeigt, dass gleichmäßig verteilte Untergruppen kaum vorhanden sind und die meisten innerhalb kurzer Zeit entweder vollständig aus A oder B bestehen. Hier liegt ein Kipp-Effekt vor, der in den 1970er-Jahren vom US-Amerikanischen Wirtschafts- und Regierungswissenschaftler Thomas Schelling (1921–2016) beschrieben wurde.193

Schelling modellierte damals noch mit Spielsteinen, doch waren in seinem Modell die gleichen Prinzipien operativ wie jene in der beschriebenen Übung durch StarPeople. Jedem Stein wurde eine Agentur zugesprochen. Resnick und Wilensky interessierten sich vor allem für den Kipp-Effekt und wie er aus der Sicht der Teilnehmer:innen verstehbar wäre. Es zeigte sich, dass es aus der Logik der Einzelaktionen schwierig ist, linear auf Gesamteffekte zu extrapolieren. Denn man nimmt an, dass die Zwei-Drittel-Mehrheiten eher Ausnahmen sind und die Verteilung gleichmäßig bleibt. Das Modell widersprach jedoch diesen Annahmen und zeigte, dass bereits kleinste Änderungen der Anfangsbedingungen zu Kippeffekten führen würden. Solche Kippeffekte seien dann auch für das Entstehen segregierter Nachbarschaften194 verantwortlich. Während Resnik und Wilensky durch ihre Begeisterung für die Synthese agentenbasierter Modellierung mit Rollenspielen blind waren gegenüber dem falschen Einsatz von Simulation für die Legitimierung fragwürdiger Stadtpolitik, ist an dieser Stelle zu betonen, dass es bei den Übungen im Rahmen von StarPeople genau nicht darum ging, unerwünschte und unvorhersehbare Effekte zu legitimieren, sondern darum, diese erst einmal diskutierbar und die Problematik, etwa die der Operation des Ausschlusses, durch die Rollenspiele erfahrbar zu machen, um in der Folge die Wichtigkeit einer experimentell-spielerischen Modellierung zu betonen. Es ging den beiden vor allem um die Erfahrung, dass Lösungen sicherlich in der Operativität einzelner Agents liegen können, dass aber manchmal scheinbar harmlose Einzelhandlungen auch unmittelbar unersichtliche Effekte zeitigen können und der Zusammenhang von Aktion und Gesamteffekt oft keine direkte, intuitiv-linear-verständliche Kausalität aufweist. Dieses Wissen und ihre Erfahrung wird kritisch, das heißt entscheidend, vor allem, wenn es darum geht, komplexe Systeme zu verstehen, und kann als Handlungswissen durch tanzende Gehirn-Körper-Medien-Ensembles, wie sie bei den Übungen im Rahmen von StarPeople entstanden, gefördert werden.

Wenn Computermodelle programmiert werden und ihre Operativitäten als kritische Modellierung und spielerische Auslotung Teil eines Kontra-Tanzes gegen eine Zumutung namens Digitalität werden sollen, dann dürfen sie niemals stagnieren, sondern müssen stets veränderlich bleiben. Nicht eine identifizierende und konservierende Definition ihres Zwecks oder Gebrauchswerts, sondern eine Betonung ihrer Eigensinnigkeit und ständigen Variabilität ist grundlegend. So stellte sich heraus, dass das Schellingsche Segregationsmodell vielfach von den Regierungswissenschaften als Begründung ihrer Ohnmacht gegenüber der Segregation in Großstädten von Nachbarschaften nach ethnischen oder religiöser Zugehörigkeit herangezogen wurde. Es kann jedoch gleichzeitig auch für die Forderung nach Diversität, also für gezielte städtepolitische Maßnahmen und Informationskampagnen umgedeutet werden. Auch Schellings dynamisches Modell der Segregation195 hat einen Eigensinn. Folgende Situation liegt vor: Die Bewohner:innen einer Nachbarschaft ziehen es vor, dass mindestens ein Drittel der Nachbarschaft aus Menschen mit ähnlicher ethnischer Herkunft besteht.196 Falls diese Bedingung nicht erfüllt wäre, würden sie in eine andere Nachbarschaft umziehen. Selbst diese relativ hohe Toleranz für Andersartigkeit bewirkt im Modell eine fünfzigprozentige Segregation. Der relativ niedriger Kipp-Punkt lässt sich, so das Argument vieler, kaum ändern. In diesem Sinne galt das Modell lange als Beweis, dass die Segregation der Bevölkerung in urbanen Räumen nicht zu verhindern sei. Spätestens 2005 zeigte sich jedoch, dass durch eine Änderung der Bewegungsbedingungen der Agents auch für das Gegenteil argumentiert werden kann. Wenn nämlich eine zweite Bedingung eingeführt wird, die nach Diversität verlangt,197 etwa dass für eine:n Bewohner:in zwar mindestens ein Viertel, aber maximal drei Viertel der Nachbarschaft als gleichartig identifiziert werden dürfen. Falls also nicht mindestens ein Viertel der Nachbarschaft als Andersartige wahrgenommen werden, zieht die Bewohner:in in eine andere Nachbarschaft mit einer höheren Diversität um. Unter solchen Bedingungen wären im selben Schellingschen Modell Nachbarschaften ohne Segregation möglich. Diese hoffnungsvolle Wende, wurde 2014 durch das Onlineprojekt Parable of Triangles198 popularisiert. Für die bereits erwähnte Medienwissenschaftlerin Wendy Chun war das Modell ein weiterer Grund dafür, anstatt eine Liebe für Gleichartige (Homophilie) zu unterstützen, eine Liebe für Andersartige zu pflegen und zu stärken.199

REPERTOIRE

Präfigurationsübungen sollen in ein Repertoire des Kontra-Tanzes münden, das uns erlauben wird die kommOnistische Kooperativität zu verstehen, zu begreifen und zu erfahren. Modellierung und Komputation würden nicht nur helfen, sich vorzustellen und zu üben wie »menschliche[] Bedürfnisse mit den Regenerationszeiten verschiedener Güter abzustimmen [sind]« 200 (und dabei wie diese Güter nachhaltig, gerecht und solidarisch zu produzieren und zu verbrauchen wären), sondern auch wie der Tanz der Äußerung, Feststellung und Stillung von Bedürfnissen geregelt und getätigt werden könnte, damit die kommOnistische Kooperativität nicht nur Gedankenspiel bleibt, sondern auch realisiert und aufrechterhaltet werden könnte. Dabei gilt es hier nochmals die Vorzüge des Modellierens im Vergleich zu anderen Kulturtechniken des Wissens hervorzuheben.

Die Operativität des Modellierens besteht aus vielen bekannten und erprobten medialen Praktiken und Kulturtechniken. Modellieren ist im Grunde genommen eine Erweiterung des Kartografierens im einfachsten Sinne, nämlich als grafisch-gestalterische Praxis, räumliche Konstellationen zwischen Subjekten, Objekten, Gebäuden, Landschaften, Beständen, Flüssen, Energien, Prozessen und Netzwerken sicht-, notier- und aufschreibbar zu machen. Eine solche Erweiterung zielt auf einen operativ-zeitlichen, prozessualen und dynamisch-interaktiven Modus der Repräsentation ab. Kartographieren ist desweiteren kein Kopieren. Ziel ist kein realistisches Abbild der zu kartierenden Sache, wie es bei einer hochauflösenden Fotografie der Fall wäre. Es geht vielmehr darum, eine visuell geprägte konzeptuelle Orientierung zu gewinnen. Beim »kognitiven Kartografieren«, wie es in den späten 1980er-Jahren von Fredric R. Jameson (*1934) geprägt wurde, geht es um die Kartierung der sozio-politischen Umgebung, der Umwelt und Situation, das heißt der Sozialität, in der sich die Kartograph:in wiederfindet. Wir erinnern uns, dass Kurz ähnlich formulierte.201 Jameson stellte fest, dass die Unfähigkeit, soziale Prozesse und Strukturen zu kartieren und zu erlernen, für die politische Erfahrung ebenso lähmend ist wie es die analoge Unfähigkeit, räumlich zu kartieren, für das Erfahren einer Stadt ist.202 Die Aktualisierung dieses Gedankens lautet: Die Skepsis gegenüber der Idee, soziale Strukturen und Prozesse mittels eigener Software zu modellieren, lähmt unsere technopolitische Handlungsfähigkeit genauso wie die Angst vor dem Programmieren ein kritisches Wissen über die algorithmische Maschinerie verunmöglicht.

Wie der Philosoph Walter Benjamin (1892–1940) in seinen geschichtsphilosophischen Thesen um 1940 formuliert hat, muss der widerständig denkende Historiker ein »konstruktives Prinzip« verfolgen, das die zu untersuchende Kette vergangener Konstellationen, Prozesse und Rhythmen »kristallisiert«, wodurch ein Anhalten, eine »Stillstellung des Geschehens«, eine »revolutionäre Chance im Kampfe für die unterdrückte Vergangenheit«203 entsteht. Diese poetisch-konstruktive Tätigkeit widerstrebt der herrschenden Wirklichkeit und enthüllt ihre Geschichte als kontingent, als von den Mächtigen geschrieben, und will ihr andere Archäologien entgegensetzen. Die Poesie, artikuliert der italienische Philosoph Franco ›Bifo‹ Berardi (*1948), beflügelt die soziale Imagination und den politischen Diskurs.204 Die Beziehung zur Technologie scheint in den geschichtsphilosophischen Thesen ein blinder Fleck zu sein, sie wird aber im berühmten Kunstwerkaufsatz aufgegriffen, in dem er die Metapher vom »Dynamit der Zehntelsekunden«205 verwendet und argumentiert, dass der Film, insbesondere die Technik der Zeitlupe, Licht auf völlig »neue Strukturbildungen der Materie« bringt und zur Entdeckung des »Optisch-Unbewussten« führt.206

Während beim klassischen, analogen Film optische Eindrücke in Einzelbilder zerlegt, auf einem fotochemischen Medium aufgezeichnet und damit ihre zeitliche Abfolge manipulierbar wird, sind im Feld der Komputation und der Computermodellierung vergangene Prozesse zwar immer noch relevant, doch bedürfen diese, wie bei einer gezeichneten Animation, keiner direkten Kopplung mit real-physikalischen Prozessen. Daten werden auch künstlich, das heißt synthetisch generiert. Sie können fiktiv sein. Das Modell operiert trotzdem. Obwohl auch der Film Operationen zeitigen konnte und damit zukunftsweisend war, lassen sich in Computermodellen merklich mehr Eigenschaften, Einstellungen, Faktoren, Regelwerke und Architekturen erproben, modulieren, verändern und variieren. Dadurch wird das experimentelle Entwerfen von Zukunft möglich. Simulationsmodelle arbeiten mikrostrukturell betrachtet auf ähnlicher Weise wie die hier dargelegten anthropogenen Wahrnehmungsweisen: 207 Neue hereinkommende, sensorische Signale werden mit intern generierten Vorhersagen, Projektionen und Prädiktionen vermischt und diese dann entsprechend aktualisiert. Die Anwendung von Computermodellen im Rahmen einer kommOnistischen Kooperativität müsste gewissermaßen ähnlich wie die lernend-adaptive Perzeption-Aktion bei Säugetieren und Menschen operieren. Ähnlich könnten auch Verbrauch und Produktion miteinander verschränkt werden.

Projektiv-präfigurative und imaginäre Operativität ist nicht nur für die kommenden Jahre in denen wir die kommOnistische Kooperativität tanzen lernen wollen, gefordert, sondern war bereits seit jeher Kernelement menschlicher Gemeinschaften – wie es der Anthropologe David Graeber (1961–2020) zusammen mit dem Prähistoriker David Wengrow (*1972) betonte:

»We all have the capacity to feel bound to people we will probably never meet; to take part in a macro-society which exists most of the time as ›virtual reality‹, a world of possible relationships with its own rules, roles and structures that are held in the mind and recalled through the cognitive work of image-making and ritual. Foragers may sometimes exist in small groups, but they do not – and probably have not ever – lived in small-scale societies.«208

Spätestens seitdem es Siedlungen gibt, in denen nicht nur hunderte, sondern tausende von Menschen zusammenleben, behelfen wir uns nach Graeber-Wengrow mit einer ›virtuellen Realität‹, das heißt mit dem Konstrukt einer imaginierten Gesellschaft, die ganze Landschaften und Erdteile umfasst. Während wir dieses Imaginieren seit jeher ohne besondere Medien bewältigen konnten, helfen uns seit mehreren Jahrzehnten vernetzte Computer, die schwierige Denkaufgabe der Skalierung zwischen Inter- und Transpersonalität noch besser zu denken, zu entwerfen und zu tätigen. Modellierung ist hier neben der Visualisierung eines der Grundprinzipien, um alternative Beziehungsweisen, Regeln (Algorithmen), Rollen, Institutionen und Strukturen, die wir aufrechterhalten und ›tanzen‹ wollen, zu erproben.

Im April 2022 legten der italienische Umwelthistoriker und Marxist Troy Vettese und der US-amerikanische Umweltwissenschaftler Drew Pendergrass die Monografie Half-Earth Socialism – A Plan to Save the Future from Extinction, Climate Change and Pandemics vor, die nicht nur eine klar formulierte Kritik der aktuellen marktpreisgesteuerten Umweltpolitik äußert, sondern ebenso ein vehement-negatives Urteil über den herrschenden Technosolutionismus und den generellen Drang nach Vermenschlichung der Natur fällt. Stattdessen wird erstens eine Verwilderung und der Rückbau anthropogener Welten gefordert209 und zweitens die Frage nach der Vermittlung von Produktion und Konsumption mit dem Verfahren der linearen Programmierung,210 das der sowjetische Mathematiker Leonid Kantorovich (1912–1986) entwickelte, zu beantworten versucht. Dabei ließen sich Vettese und Pendergrass drittens auch von Otto Neuraths (1882–1945) Ideen zur Naturalwirtschaft oder durch Stafford Beers (1926–2002) Cybersyn-Projekt inspirieren.211 Es ging ihnen vermutlich weniger um eine zentralen Planung, sondern um das Szenario einer sozialistisch-geprägten Erde mit einer Vielzahl an weltweit miteinander kollaborierender Planer:innen und Modellierer:innen, die alle in der Grundausbildung die Mathematik der linearen Programmierung gelernt haben. Viertens plädieren sie für den weltweiten institutionell organisierten Vegetarismus, der die Bodenbelastung und unseren Umweltschaden massiv verringern könnte.212 Besonders einschlägig scheint mir ihre Kollaboration mit Spielegestalter:innen, die daraus ein eher systemdynamisches, nicht agentenbasiertes Computermodell in Form eines interaktiven Kartenspiels213 spielbar machte. Was würde passieren, wenn wir mit agentenbasierten Modellen spielen könnten,214 und auf ähnliche Weise die selbstorganisierende kommOnistische Kooperativität tanzend erproben könnten?

Digitalität tanzen erfordert solidarische Lebensformen, die ein kollektives Selbst tanzen, ein »self feminists must code […]« 215 und ein Gefüge und Netzwerk ironischer, leicht anfälliger, oft bewusst dysfunktionaler Maschinen, die die kommOnistische Zukunft ständig neu modellieren und präfigurieren. Ähnlich stellt sich vermutlich die Berliner Schriftstellerin und Theatermacherin Luise Meier (*1985) ihre MRX-Maschine vor, wenn sie schreibt: »Fuck-Up + Solidarität = Revolution«.216 Die aotearoanische Tanz-, Medien- und Musikwissenschaftlerin Sally Jane Norman (*1953) dachte vielleicht an Haraways Forderung, dass Feminist:innen neue Formen des kollektiven Selbst programmieren sollen, als sie für das Live Coding, auf Deutsch etwa: ›lebendige Programmieren‹ argumentierte:

»Live coding is a way of tuning our cognitive and sensory faculties to enfolded layers of micro, meso, and macro temporalities, keeping up with or irreverently outwitting machinic and hybrid forms of liveness, gambling with their parameters, valuing agonistic creative engagement with powerful symbolic systems over their docile or numbly passive use.« 217

Das lebendige Programmieren stimmt unsere kognitiven und sensorischen Antennen auf die polyphonen, vielschichtigen Zeitigungsprozesse der Algorhythmen in unserer unerträglichen Techno-Öko-Bio-Sphäre ein und bringt uns weg von der fügsamen, betäubt-passiven Anwendung der uns zugemuteten Digitalität. Bestehende und entstehende Modellierungen und präfigurative Systeme könnten in einen kollektivistisch programmierten, föderalistisch organisierten Kosmos des Modellierens münden, in dem wir die kommende Transformation vorbereiten, entwerfen, planen, erproben, verwerfen, reflektieren, diskutieren, verbessern, austesten und dadurch Schritt für Schritt Digitalität tanzen lernen könnten. Verbündete, Genoss:innen und Kooperativen sind zahlreich vorhanden, doch müssten wir uns alle besser kennenlernen, kooperieren und zusammen wachsen. Auch hier zeigt die Mediengeschichte, dass Vernetzungsprozesse plötzlich entstehen. Es muss nur der Funke überspringen.

Es genügt nicht mehr, von Keimformen, Fermenten218 und neuen Erzählungen zu reden. Die Keimformen müssen operativ werden, auch wenn dies vorerst nur in der virtuellen Realität per Komputation und Modellierung geschehen kann. Die Übertragung und Transduktion aus dem symbolischen Raum wäre dann der nächste Schritt, der vermutlich parallel verlaufen wird, weil das Symbolische und das Reale sich im Tanzen treffen. Wir müssen dazu jedoch anfangen zu tanzen und neue Muster und Gegen-Algorhythmen lernen, programmieren, modellieren, einüben, verkörpern und ständig anpassen. Oft ist die Rede von der Macht der Ansteckung, doch sie alleine wird für größere Transformationsprozesse nicht ausreichen. Der ansteckende Rhythmus darf nicht nur für Zuckungen und Spasmen sorgen, sondern die unidirektionale Übertragung muss aktiv-lernend abgefangen, umgedeutet, kritisiert und getanzt werden. Längst sind ins Schauspiel und Theater als Ort der gelebten Solidarität219 die enormen Potentiale und Mächte, die durch Komputation und Modellierung realisierbar wurden, eingezogen. Nun gilt es, sie vorsichtig umzulenken und nachhaltig anzuzapfen. Die Zeit drängt!

Anmerkungen

107 Marie-Luise Angerer, Nichtbewusst: Affektive Kurzschlüsse zwischen Psyche und Maschine, (Wien: Turia + Kant, 2022), 38.

108 Ebd., 116.

109 Brian Massumi, »The Autonomy of Affect«, Cultural Critique, Nr. 31 (1995): 83–109, hier 88.

110 Fred Moten und Stefano Harney, Eine Poetik der Undercommons, (Leipzig: Merve Verlag, 2019), 32.

111 Ebd., 45.

112 Stefano Harney und Fred Moten, The Undercommons. Fugitive Planning & Black Study, (New York: Minor Compositions, 2013), 28.

113 Und wurden auch kontrovers diskutiert, vgl. Ruth Leys, »The Turn to Affect: A Critique«, Critical Inquiry 37, Nr. 3 (März 2011): 434–72. In der Fußnote bei Massumi 1995 wird das Erscheinungsjahr aufgrund eines Tippfehlers 1964 statt 1994 angegeben: Horgen, John Horgan, »Can Science Explain Consciousness?«, Scientific American 271, Nr. 1 (1994): 88–94, hier 92. Worin Libets Arbeit zwar erwähnt, doch nicht mit weiteren Quellen verknüpft wird.

114 Benjamin Libet, »Unconscious Cerebral Initiative and the Role of Conscious Will in Voluntary Action«, Behavioral and Brain Sciences 8, Nr. 4 (Dezember 1985): 529–39, sowie Kommentare bis 566.

115 Henning Schmidgen, Hirn und Zeit. Die Geschichte eines Experiments 1800–1950, (Berlin: Matthes & Seitz, 2014), hier 21  f.

116 Ueber die Methoden, kleinste Zeittheile zu messen, und ihre Anwendung für physiologische Zwecke. Vom Professor Dr. H. Helmholtz. Gelesen in der physikalisch-ökonomischen Gesellschaft zu Königsberg, am 13. December 1850, Königsberger naturwissenschaftliche Unterhaltungen 2/2: 169–189, hier 187.

117 Ebd., 186. Vgl. dazu Henning Schmidgen, Die Helmholtz-Kurven. Auf der Spur der verlorenen Zeit, (Berlin: Merve, 2009), 173.

118 EEG = Elektroenzephalografie. Zur Geschichte dieses medientechnischen Verfahrens: Cornelius Borck, Hirnströme. Eine Kulturgeschichte der Elektroenzephalographie, (Göttingen: Wallstein Verlag, 2005).

119 Die Vermessung des Bereitschaftspotentials wäre beispielsweise ohne Magnetbandspeicher nicht möglich gewesen.

120 Libet studierte etwa beim US-amerikanischen Physiologen Ralph W. Gerard (1900–1974), der zur Kerngruppe der Macy-Konferenzteilnehmer:innen gehörte. Dazu Henning Schmidgen, Hirn und Zeit, 433.

121 Ebd., 19.

122 Benjamin Libet, »Unconscious Cerebral Initiative and the Role of Conscious Will in Voluntary Action«, Behavioral and Brain Sciences 8, Nr. 4 (Dezember 1985): 529–39, hier 529.

123 Kommentare zu Benjamin Libet, »Unconscious Cerebral Initiative and the Role of Conscious Will in Voluntary Action«, Behavioral and Brain Sciences 8, Nr. 4 (Dezember 1985): 539–66, hier 544.

124 Ruth Leys, »The Turn to Affect: A Critique«, Critical Inquiry 37, Nr. 3 (März 2011): 434–72, hier 450  f.

125 Massumi, »The Autonomy of Affect«, 96.

126 Ebd., 102.

127 Ebd., 106.

128 Algorhythmus ist als Begriff aus der Synthese des technomathematischen, informatischen und eher mit Abstraktion assoziierten Begriffs Algorithmus und dem musikalisch-sonischen und eher mit dem Realen und Lebendigen konnotierten Begriff Rhythmus entstanden. Gleichzeitig ist der Begriff Algorhythmus an die alphanumerische Notation gebunden. Wie bei der Derridaschen Différance ist die Differenz zwischen Algorithmus und Algorhythmus im Gesprochenen unhörbar. Vgl. dazu Shintaro Miyazaki, Algorhythmisiert. Eine Medienarchäologie digitaler Signale und (un)erhörter Zeiteffekte, (Berlin: Kulturverlag Kadmos, 2013). Der Rhythmus als epistemischer Filter für Machtkritik wurde bereits vom französischen Marxisten und später Stadtsoziologen Henri Lefebvre (1901–1991) erkannt, der für die Rhythmusanalyse als Ansatz, die Operativität einer Stadt zeitlich zu erfassen, argumentierte. Henri Lefebvre, Rhythmanalysis: Space, Time and Everyday Life, [Élements de rythmanalyse, Paris: Édition Sylleps 1992] (London / New York: Continuum, 2004).

129 Kapitel »Al-Khwāriddim« (55–60) in Stefano Harney und Fred Moten, All Incomplete, (New York: Minor Compositions, 2021), 56.

130 Ebd., 58.

131 Steven Brown, Michael J. Martinez, und Lawrence M. Parsons, »The Neural Basis of Human Dance«, Cerebral Cortex 16, Nr. 8 (1. August 2006): 1157–67, hier 1157.

132 Martin Carlé, Signalmusik MK II – Eine zeitkritische Archäologie des Technosystems QRT, (Berlin: Kulturverlag Kadmos, 2006), 81  ff.

133 Cecília de Lima, »Trans-Meaning – Dance as an Embodied Technology of Perception«, Journal of Dance & Somatic Practices 5, Nr. 1 (1. Oktober 2013): 17–30, hier 23.

134 Julia F. Christensen, Camilo José Cela-Conde, und Antoni Gomila, »Not All about Sex: Neural and Biobehavioral Functions of Human Dance: Neural and Biobehavioral Functions of Human Dance«, Annals of the New York Academy of Sciences 1400, Nr. 1 (Juli 2017): 8–32, hier 9.

135 Ebd., 16–20.

136 Ebd., 15.

137 Vgl. dazu Steven Brown, »Group Dancing as the Evolutionary Origin of Rhythmic Entrainment in Humans«, New Ideas in Psychology 64 (Januar 2022), 100902, 1–12, hier 3.

138 Gabriele Klein, »Tanz«, in Handbuch Körpersoziologie, hg. von Robert Gugutzer, Gabriele Klein, und Michael Meuser, (Wiesbaden: Springer, 2017), 335–47, hier 335.

139 Ebd.

140 Ebd., 338.

141 Erin Manning, Always more than one. Individuation’s Dance, (Durham: Duke University Press, 2012), 14.

142 Ebd., 15.

143 Ebd., 20.

144 John W. Krakauer u. a., »Motor Learning«, in Comprehensive Physiology, hg. von Ronald Terjung (Wiley, 2019), 613–63, hier 616.

145 Bruno H. Repp und Yi-Huang Su, »Sensorimotor Synchronization: A Review of Recent Research (2006–2012)«, Psychonomic Bulletin & Review 20, Nr. 3 (Juni 2013): 403–52, hier 403.

146 Ebd., 406.

147 Friedemann Pulvermüller und Luciano Fadiga, »Active Perception: Sensorimotor Circuits as a Cortical Basis for Language«, Nature Reviews Neuroscience 11, Nr. 5 (Mai 2010): 351–60.

148 Andy Clark, Surfing Uncertainty. Prediction, Action, and the Embodied Mind, (Oxford: Oxford University Press, 2016), 6.

149 Ebd., 270.

150 Rick A. Adams, Stewart Shipp, und Karl J. Friston, »Predictions Not Commands: Active Inference in the Motor System«, Brain Structure and Function 218, Nr. 3 (Mai 2013): 611–43.

151 Martina Leeker, »Automatismen im Tanz. Vom Agenten-Züchten«, in Unsichtbare Hände. Automatismen in Medien-, Technik- und Diskursgeschichte, hg. von Hannelore Bublitz u. a., (Paderborn: Fink, 2013), 111–40, hier 112.

152 Vgl. Ebd., 113.

153 Ebd., 119.

154 Vgl. Claus Pias, »Synthetic History«, Archiv für Mediengeschichte 1 (2001): 171–83, hier 176.

155 Claus Pias, »Zur Epistemologie der Computersimulation«, in Spielregeln. 25 Aufstellungen. Eine Festschrift für Wolfgang Pircher, hg. von Peter Berz u. a., (Zürich  /  Berlin: Diaphanes, 2012), 41–60, hier 58.

156 Heinz von Foerster, »Perception of the Future and the Future of Perception«, Instructional Science 1, Nr. 1 (März 1972): 31–43, hier 32.

157 Ebd.,  31.

158 Ebd.,  40. Vgl. hierzu auch Jan Müggenburg, »From Learning Machines to Learning Humans: How Cybernetic Machine Models Inspired Experimental Pedagogies«, History of Education 50, Nr. 1 (2. Januar 2021): 112–33, hier 130.

159 Von Foerster, Perception of the Future, 40. In einem Text aus den 1980er-Jahren vergleicht Foerster nicht-triviale Maschinen mit den damals neuen Begriffen wie »seltsamer Attraktor«, deren Semantik er aber kritisiert. Damit wurden sie jedoch gleichzeitig den chaotischen Modellen der nicht-linearen Dynamik anschlussfähig gemacht. Vgl. Heinz von Foerster, »Prinzipien der Selbstorganisation ım sozialen und betriebswirtschaftlichen Bereich«, in Wissen und Gewissen. Versuch einer Brücke, hg. von Siegfried J. Schmidt, (Frankfurt am Main: Suhrkamp, 1993), 233–68, hier 261.

160 Von Foerster, Perception of the Future, 42.

161 Fred Turner, From Counterculture to Cyberculture: Stewart Brand, the Whole Earth Network, and the Rise of Digital Utopianism, (Chicago: University of Chicago Press, 2006).

162 Vgl. Seymour Papert, »40 Years since the Russian Revolution«, Socialist Review 7, Nr. 1 (November) (1957): 4.

163 Walter nannte diese Maschinen Tortoises, auf Deutsch Schildkröten. Siehe W. Grey Walter, »AN ELECTRO-MECHANICAL ›ANIMAL‹«, Dialectica 4, Nr. 3 (September 1950): 206–13, hier 209.

164 Seymour Papert, Mindstorms: Children, Computers, and Powerful Ideas, (New York: Basic Books, 1980), 125.

165 Ebd.,  16.

166 Ebd.,  179.

167 Ebd.,  182.

168 Ebd., im Vorwort viii.

169 Ebd.,  145.

170 Jörg Pflüger, »Writing, Building, Growing. Leitvorstellungen der Programmiergeschichte«, in Geschichten der Informatik. Visionen, Paradigmen, Leitmotive, hg. von Hans Dieter Hellige, (Berlin: Springer, 2004), 275–320, 283.

171 Ebd.,  288.

172 Ebd.,  293.

173 Siehe Seite 18 hier.

174 Ebd.,  297.

175 Ebd.,  300.

176 Vgl. zum ganzen Abschnitt hier über Smalltalk-80, David Robson, »Object-Oriented Software Systems«, Byte 6, Nr. 8 (1981): 74–86.

177 Sebastian Vehlken, Zootechnologien: Eine Mediengeschichte der Schwarmforschung, (Zürich  /  Berlin: Diaphanes, 2012), 315  ff.

178 Während sich Reynolds auf Paperts Logo bezieht und auch Kernkonzepte der objektorientierten Programmierung beschreibt, scheint sein Jargon im Jahr 1987 den Begriff Agent nicht zu kennen.

179 Philip E. Agre, The Dynamic Structure of Everyday Life (Technical Report 1085), (Cambridge, MA: MIT Artificial Intelligence Laboratory, 1988), 57.

180 Ebd.,  160.

181 Ebd.,  274, 276, 335.

182 Vgl. Ebd., 255.

183 Vgl. Andy Clark, Natural-born Cyborgs. Minds, Technologies, and the Future of Human Intelligence, (Oxford ; New York: Oxford University Press, 2003), 159 und dazu ebenso, Chris Salter, Sensing Machines. How Sensors Shape our Everyday Life, (Cambridge, MA: MIT Press, 2022), 245  f.

184 Siehe Seite 101 hier.

185 Abkürzung für Systems Thinking, Experimental Learning Laboratory with Animation.

186 Stella stammt übrigens auch aus dem MIT, aber aus dem Umfeld Jay Wright Forresters (1918–2016).

187 Etwa eine Lotka-Volterra-Gleichung, vgl. Mitchel Resnick, Turtles, Termites, and Traffic Jams: Explorations in Massively Parallel Microworlds, (Cambridge, MA: MIT Press, 1994), 93.

188 Ebd.,  35.

189 Ebd., Kap. 3, 49–117.

190 Mitchel Resnick und Uri Wilensky, »Diving Into Complexity: Developing Probabilistic Decentralized Thinking Through Role-Playing Activities«, Journal of the Learning Sciences 7, Nr. 2 (1998): 153–72, hier 157.

191 Ebd.,  161.

192 Ebd.,  162  f.

193 Ebd.,  165.

194 Ebd.,  166.

195 Thomas C. Schelling, »Dynamic Models of Segregation« (Journal of Mathematical Sociology (Vol. 1), Gordon and Breach Science, 1971): 143–86, hier 181.

196 Dieser Wert variiert je nach Implementierung des Modells. Die Werte hier stammen aus jenem von VJ Hart und Nicky Case: https://ncase.me/polygons/

197 Mark Fossett und Warren Waren, »Overlooked Implications of Ethnic Preferences for Residential Segregation in Agent-Based Models«, Urban Studies 42, Nr. 11 (Oktober 2005): 1893–1917, 1912  f.

198 https://ncase.me/polygons/

199 Siehe Fußnote 81 hier.

200 Redecker, Revolution für das Leben, 261. Siehe Fußnote 39 hier.

201 Siehe Seite 60 hier.

202 Fredric Jameson, »Cognitive Mapping«, in Marxism and the Interpretation of Culture, hg. von Cary Nelson und Lawrence Grossberg, (Macmillan, 1988), 347–60, hier 357.

203 Walter Benjamin, »Über den Begriff der Geschichte«, in Gesammelte Schriften Bd. 1, hg. von Rolf Tiedemann und Hermann Schweppenhäuser, (Frankfurt am Main: Suhrkamp, 1974), 691–704, hier 702  f.

204 Franco Bifo Berardi, Breathing – Chaos and Poetry, intervention series 26, (Semiotext(e), 2018), 18. Ähnlich auch Moten und Harney siehe Seite 83 hier.

205 Walter Benjamin, »Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit (3. Fassung)«, in Gesammelte Schriften Bd. 1, hg. von Rolf Tiedemann und Hermann Schweppenhäuser, (Frankfurt am Main: Suhrkamp, 1974), 471–508, hier 499.

206 Ebd.,  500.

207 Dieses vereinfachende Argument dient dazu, diese beiden Felder zusammen zu denken. Sicherlich ist es eher so, dass Computermodelle neue Perspektiven auf das kognitionswissenschaftliche Verständnis über menschliche Wahrnehmungsweisen ermöglichten.

208 David Graeber und D. Wengrow, The Dawn of Everything. A new History of Humanity, (Dublin: Allen Lane, 2021), 281.

209 Troy Vettese und Drew Pendergrass, Half-Earth Socialism, (London  /  New York: Verso, 2022), 54.

210 Ebd., 100  ff. und 117.

211 Ebd., 119  ff.

212 Ebd.,  80  f.

213 Das Online-Spiel (https://play.half.earth) wurde von Francis Tseng, Son La Pham und vielen Anderen programmiert und gestaltet.

214 Vgl. dazu Selena Savic u. a., »Toys for Conviviality. Situating Commoning, Computation and Modelling«, Open Cultural Studies 4, Nr. 1 (1. Januar 2020): 143–53.

215 Donna J. Haraway, »A Cyborg Manifesto: Science, Technology, and Socialist-Feminism in the Late Twentieth Century (Reprint from 1985)«, in Simians, Cyborgs, and Women: The Reinvention of Nature, (New York: Routledge, 1991), 149–81, hier 163.

216 Luise Meier, MRX-Maschine, (Berlin: Matthes  &  Seitz, 2018), hier 195.

217 Sally Jane Norman, »Setting Live Coding Performance in Wider Historical Contexts«, International Journal of Performance Arts and Digital Media 12, Nr. 2 (2. Juli 2016): 117–28, 126.

218 Kurz, Antiökonomie und Antipolitik, 95. Zum Begriff Keimform siehe die Seiten 62  f. und 71  f. hier.

219 Christoph Menke, »Kritik und Apologie des Theaters«, in Am Tag der Krise: Kolumnen, (Berlin: August Verlag, 2018), 133–51, hier 141.

keyboard_arrow_up
Logo small
  • Das ist transcript
  • Programm
  • Förderer
  • Newsletter abonnieren
  • Kontakt
  • Impressum / Datenschutzerklärung