Zur Startseite
  • Programm
  • Reihen
  • Förderer
  • Autor*innen
  • Zeitschriften
  • Studium
  • BiUP
  • mdwPress
  • Info
  1. Start
  2. Programmbereiche
  3. Medienwissenschaft
  4. Medientheorie
  5. Digitalität tanzen!
  6. I KO-OPERATIVITÄT

I KO-OPERATIVITÄT

DOI: 10.14361/9783839466261-002
  • Photo Miyazaki,  Shintaro
    Miyazaki, Shintaro ORCID: 0000-0002-7922-735X
Book Cover [Title]
menu_book Zum Gesamtwerk picture_as_pdf Beitrag herunterladen (PDF) chrome_reader_mode Beitrag lesen (HTML) description Zitationsinformation
Miyazaki, Shintaro (2022). I KO-OPERATIVITÄT. In: Shintaro Miyazaki (Eds.), Digitalität tanzen! (15-79). Bielefeld: transcript Verlag. https://doi.org/10.14361/9783839466261-002

Book DOI: https://doi.org/10.14361/9783839466261-002

Online ISBN: 978-3-8394-6626-1

© Miyazaki, Shintaro © by-sa This work is licensed under the Creative Commons Attribution-ShareAlike 4.0 License (CC BY-SA 4.0)

Retrieved 2023-03-24 8:15:00-CETtext_snippet Download RTF
Views / Downloads
1417 / 753
Erscheinungstermin
01. November 2022
Creative Commons Lizenz
Creative Commons cc-by-sa
Open Access enabled by
Humboldt-Universität zu Berlin

Beiträge

cancel
Frontmatter

Miyazaki, Shintaro

Inhalt

Miyazaki, Shintaro

INTRO

Miyazaki, Shintaro

I KO-OPERATIVITÄT

Miyazaki, Shintaro

II KONTRA-TANZ

Miyazaki, Shintaro

NACHWORT

Miyazaki, Shintaro

menu_open
DOI: 9783839466261-002

I
KO-OPERATIVITÄT

Sowohl Tanzen als auch Zusammenleben beruhen auf mannigfaltigen Arten und Weisen der Kooperation. Während beim Tanzen physiologisch-energetische, affektive und mikrozeitliche Aspekte – im Sekunden- und Minutenbereich – kritisch sind, sind für ein gutes Zusammenleben vor allem ökosoziale, kulturelle und langfristige Effekte wichtig. Werden räumliche Aspekte herangezogen, so geht es beim Tanzen eher um Interpersonalität in Häusern, Hallen, Stadien oder Straßenzügen, während beim Zusammenleben das transpersonale Geschehen in Stadtquartieren, Landschaften oder gar geographischen Regionen in den Blick rückt.11 Das Argument hier ist aber, dass beide Sphären miteinander verschränkt sind und dass physiologisch-mediale, signalbasierte Prozesse auch für das Zusammenleben und soziale, organisatorische Prozesse umgekehrt auch beim Tanzen wichtig sind. Außerdem, dass Medientechnologien zwischen diesen Ebenen skalieren können – sowohl mit positiven als auch negativen Effekten. Varianten und Tänze der Kooperation verorten sich einerseits zwischen interpersonalen und transpersonalen sowie andererseits zwischen konkret-materiell-raumzeitlichen und mental-imaginär-virtuell-symbolischen Aspekten, die jeweils durch Medien der Kognition, der Erinnerung, der Organisation, der Komputation, der Transmission etc. geprägt und gestaltet werden. Das kooperative Zusammenleben setzt sich dabei metaphorisch betrachtet aus zahlreichen soziomedialen Tanzbewegungen und kleinteiligen, gemeinsam durchgeführten Operationen zusammen. Bei einer Kooperation sind folglich stets arbeitsaufwendige Handlungen im Spiel. So ist das Lateinische opera die etymologische Wurzel von Operation, auch Werk oder Arbeit. Die lateinischen Vorsilben ›Co-‹ und ›Com-‹ meinen mit, gemeinsam, zusammen.

Eine Operation ist im Allgemeinen eine Arbeitseinheit, eine Handlung, etwa ein medizinischer Eingriff in Körper, ein militärischer Einsatz, ein mathematisch-symbolischer oder ein physikalisch-materialbasierter Prozess. Eine Operation kann auch gewaltsam sein. Dabei gibt es eine ausführende Entität, eine:n Operator:in, eine Maschine, ein System, einen Organismus, der die Operation verrichtet und dabei nicht nur Energie aus der Umwelt, sondern meist auch Materialien verbraucht. Ein:e Operator:in wird operativ indem seine bzw. ihre Arbeit wirksam wird und Operationen zeitigt. Durch das koordinierte, geplante, manchmal aber auch spontane Zusammenspiel von Operationen entsteht Kooperation, die stück- und schrittweise Arbeit in Form von Erzeugnissen, Produkten, Gütern, Dienstleistungen erzeugt und dabei gleichzeitig Spuren hinterlässt. Kooperativität, Produktivität und Medialität gehen miteinander einher, sind verschränkt. Operationen finden überall, auf allen raumzeitlichen Ebenen statt. Gefüge, Ballungen und Ensembles vieler Operationen formieren und strukturieren sich zu einer organisatorischen Einheit zu einem System. Arbeit, Operation und ihre Umwelt in-formieren sich dabei gegenseitig. Ihr Verhältnis muss aber geregelt werden, vor allem wenn es darum geht, die negativen Auswirkungen einer Operation zu verringern.

Kooperativität im Digitalen zeichnet sich folglich durch eine eigentümliche Verschränkung technomathematischer, informatischer und symbolischer mit sozio-umweltlicher, materiell-produktiver Operativität aus. Hinzu kommt, dass sich mediale, vermittlungs- und prozessorientierte, hochtechnologische Aspekte mit gemeinschaftlichen und gesellschaftspolitischen Agenturen koppeln. Dabei ist die Operativität der aktuell erfolgreichsten und verbreitetsten Formen der Digitalität derart mächtig, dass sie auf fast allen zeitlichen und räumlichen Ebenen fraktal-rekursiv wirksam wird. Dies ist eine deprimierende Zumutung, eröffnet aber zugleich Chancen für Transformation! Echte Kooperativität als Zustand des Kooperativ-Werdens ist eine wünschenswerte Eigenschaft der Digitalität, die bisher nur äußerst selten direkt an die Oberfläche getreten ist und die maßgeblich von der darunterliegenden Organisation der Komputation bestimmt wird. Die große Masse der vorliegenden digitalen Infrastrukturen, Anwendungen, Dienstleistungen, Systeme und Umgebungen ist, wie bereits angeführt, Eigentum und Instrument anti-kooperativer, proprietärer, extraktiver, asozialer und profitorientierter Netzwerke. Eigentum hegt ein, schließt aus und sichert die Macht der Mächtigen.

Komputation meint die Tätigkeit des Computers als Verflechtung und Gemengelage zahlreicher Operationen und basiert auf einer spezifischen, nämlich rechnenden Kooperativität, die sich gemäß der eingeschriebenen Algorithmen in Schaltkreisen und Netzwerken zeitigt. Computing und Komputation sind ferner, zumindest in Bezug auf die Vorsilbe, etymologisch verwandt mit der Kommune, der communitas und der Kommunikation. Communis steht bekanntlich für gemein, gemeinsam, Gemeinschaft und communicare für gemeinschaftlich machen oder mitteilen. Das lateinische Wort Com-putare bedeutet zusammenrechnen, auf addieren, zusammen einschätzen, voraussehen, denn das Verb putare bedeutet meinen, glauben, vermuten, erwägen, berechnen, überlegen oder einschätzen. Komputieren als Kernaktivität des Digitalen ist nicht nur etymologisch betrachtet eine gemeinschaftliche Handlung und beruht auf Kooperation, sondern besteht mitunter auch aus technisch-struktureller Sicht aus dem komplizierten Zusammenspiel von Operationen der Speicherung (Archivierung), Übertragung (Kommunikation) und Berechnung (binäre Arithmetik) sowie weiteren technologischen Prozessen in digitaler Hardware und Software.

Aus medienarchäologischer Sicht einschlägig ist hier die Manufaktur mit Arbeiter:innen als Rechen-Operator:innen, die auch Computer genannt wurden, zur Berechnung logarithmischer und trigonometrischer Tabellen als Rechenhilfen, die der Ingenieur und Unternehmer Gaspard de Prony (1755–1839) ca. 1791 in Paris initiierte und leitete. Kern der Innovation bildet die Arbeitsteilung nach Adam Smith, die sich in einer horizontalen Aufteilung der Rechenarbeit in einfache Grundoperationen, nämlich Additionen, und gleichzeitig in einer vertikalen Hierarchisierung durch Unterbezahlung manifestierte. Sie war eine der ersten Fabriken ihrer Art. Bis 1950 wurden seitdem ähnliche Computerverbünde immer wieder in vielen Varianten implementiert. Solche Praktiken der Ausbeutung durch Hierarchisierung sind keineswegs überwunden. Als verachtenswerte Innovation werden sie etwa unter Euphemismen wie ›künstlich-künstliche Intelligenz (AAI)‹ oder ›Amazons mechanischer Türke (MTurk)‹ in Jeff Bezos Firmenimperium weitergeführt. Die Operator:innen sitzen hier völlig isoliert von einander in Heimarbeit vor dem Bildschirm und führen Operationen durch, deren maschinell-algorithmische Ausführung noch zu teuer und zu aufwendig ist, so dass dafür menschliche kognitive Fähigkeiten in Form von Billigstarbeit abgeschöpft werden. MTurk wurde 2005 aufgeschaltet und ist eine Onlinedienstleistung, die das Delegieren von Operationen etablierte, die wie Maschinen, das heißt: schnell und effizient, aber nicht durch Maschinen, sondern durch Menschen zu verrichten sind. Als erstes Einsatzfeld, das Amazon in den 2000er-Jahren erprobte, gilt das Auffinden von Dubletteneinträgen seines eigenen Online-Marktes. ›Teile-und-Herrsche!‹ als informatisches Prinzip schließt sich hier mit seinem Ursprung als Regierungstechnik wieder kurz.

Die beiden Beispiele verdeutlichen, dass digitale, komputatorische Kooperativität sowohl durch technisch-maschinelle Operatoren als auch durch menschliche Operator:innen verrichtet werden kann und dass die Kreativität und die Erfindungskraft, neue Weisen dieser Aktivität zu realisieren, meist durch den Sachzwang kapitalistischer Maschinerie12 geprägt ist. Auch wenn sich die Produktivität der Technologien steigert, sie bewirken meist keine Befreiung von der Arbeit, denn der Kapitalismus operiert nach der ›freien‹, sich selbstorganisierenden Marktlogik, deren Operativität sich gnadenlos am Profit orientiert und dabei jegliche Solidarität unter den Produzierenden durch gegenseitigen Konkurrenzkampf zerschlägt. Es geht jedoch auch anders. Diese Dynamik und Kraft neuer Instrumente, Maschinen und Technologien, die auf gesellschaftliche Verhältnisse einwirken, gilt es zu bändigen, zu vergemeinschaften, für alle zugänglich zu machen und so einzurichten und einzuprogrammieren, dass sie zugunsten der Ohnmächtigen operieren und diese dazu ermächtigen, ihre miserable Lage in eine bessere zu transformieren. Mein Vorschlag: Das Ganze soll als Tanz praktiziert werden! Als Refrain: »Eigentum verpflichtet. Sein Gebrauch soll zugleich dem Wohle der Allgemeinheit dienen.« 13 Wie diese Anweisung aus dem Grundgesetz der Bundesrepublik Deutschland gemeint sein könnte, wird im Folgenden erklärt.

Die Energie, Kraft und Mächtigkeit neuer Technologien wurde bereits in der Frühzeit der Industrialisierung um 1820 vor allem im Bereich der Textilindustrie spürbar und provozierte zahlreiche kritische Reaktionen. William Thompson (1775–1833) etwa setzte sich für die gegenseitige, gleichberechtigte Kooperation, »mutual cooperation«, und gegen das Prinzip des Wettbewerbs ein, dessen bösartige Aspekte er 1824 mit größter Klarheit in An Inquiry into the Principles of the Distribution of Wealth most conductive to Human Happiness aufzählte. Der Wettbewerb zwischen Individuen würde nicht nur den Egoismus dem gemeinschaftlichen Wohlwollen vorziehen und es zum Leitprinzip jeglicher Alltagshandlungen machen, sondern mitunter die brachliegenden, produktiven Kräfte der Frauen lähmen und damit die Angleichung ihrer Rechte unmöglich machen. Wettbewerb führe zu ungünstigen oder gar ungerechten Strapazen, Mühen und Leiden einzelner Menschen, weil die Beurteilung eines Einzelnen stets begrenzt ist und es viel einfacher wäre zu kooperieren. Der Wettbewerb zwischen Individuen hemmt weiterhin auch die Verbreitung des Allgemeinwissens durch die Notwendigkeit der Geheimniskrämerei, wenn Errungenschaften in Wissenschaft, Kunst und Zusammenleben dem individuellen Gewinn untergeordnet werden.14 In einer Gesellschaft die nach dem Wettbewerbsprinzip operiert, würden jegliche Produktionsverbesserungen stets den Kapitalisten und weder den ahnungslosen Arbeiter:innen noch den Konsument:innen zugutekommen.15 Die gleichberechtigte, reziproke Kooperation hingegen würde erstens nicht nur die Verschwendung von Arbeitskraft, für die auf dem im Markt keine Nachfrage besteht, zweitens die Verluste vieler im Namen des Profits weniger und drittens die Vergeudung von Leben, Gesundheit und Freude durch Armut, Unwissen und Vernachlässigung verhindern, sondern darüber hinaus viertens Produktion und Verbrauch gleichmäßig verteilen und fünftens dadurch auch eine Existenzsicherung für alle ermöglichen.16

COMMONS

Gesellschaften, die auf gleichberechtigter Kooperativität basieren wurden nicht erst in den 1820er-Jahren erträumt. Im Gegenteil: Mit der Entstehung des Kapitalismus und der ›Moderne‹ wurden sie zu dieser Zeit in Europa vielmehr fast vollständig eliminiert. Noch 600 Jahre zuvor wurden solche Kooperationsformen in England als commons, Englisch für Allmende, Gemeingut, Gemeinschaft, bezeichnet. Auch hier gilt die etymologische Verwandtschaft zu communitas, Kommune und Kommunikation. Als Plural von common, das gewöhnlich, allgemein, gemeinschaftlich bedeutet, galt der Begriff commons nicht nur für Güter, Tiere oder Landschaften, sondern auch für Menschen. Die Formulierung ›enclosing commons‹, die beispielsweise im Commons Act des Englischen Parlaments aus dem Jahr 1235 auftaucht, meinte das Einschließen, Einhegen und die Inbesitznahme gemeinschaftlich gepflegter und genutzter Wälder und Felder durch Feudalherren. Das Englische Parlament wurde ein paar Jahrzehnte davor zur Stärkung der Barone als Gegengewicht zum Haus Plantagenet eingerichtet. Diese französischstämmige Herrscherdynastie stellte lange Zeit die Könige von England. Wie der marxistischer Sozialhistoriker Peter Linebaugh (*1942) einschlägig beschrieb, gilt es hier die Magna Carta als Vereinbarung, die 1215 verfasst und 1217 vom jungen Heinrich III. anerkannt wurde, hervorzuheben, denn sie sollte nicht nur die Macht des Königs schwächen und die Rechte der Feudalherren, der Handelnden, der Juden stärken, sondern sie hat ganz nebenbei die Wälder zu commons deklariert.17 Wälder boten für die Landbevölkerung seit jeher wichtige Ressourcen, nicht nur für Behausungen und Alltagsgegenstände, sondern vor allem als Energielieferanten. Den Wald als Commons zu betrachten, war jedoch ein altertümliches Überbleibsel längst vergangener Lebensformen. Mit der vollständigen Abholzung der Wälder im 18. Jahrhundert, vor allem auf der englischen Insel, wurde Steinkohle als Energiequelle notwendig. Was wäre wohl passiert, wenn die Wälder Gemeingut geblieben wären? Eine Frage mit der sich manche Gegenerzählung beschäftigen könnte.

Es war vor allem die Enclosure-Bewegung des 16. Jahrhunderts mit der die Wälder zusammen mit den Weideflächen von den Herrschenden gewaltsam als Eigentum in Besitz genommen wurden, auf Deutsch wird dies auch Landnahme genannt. Bereits der berühmte Sozial- und Wirtschaftshistoriker Karl Polanyi (1886–1964) beschrieb in The Great Transformations eindrücklich, wie die Weiden die Infrastruktur für die Schafwollproduktion und die Grundlage für eine »Revolution der Reichen gegen die Armen« boten.18 Der Historiker Werner Plumpe (*1954) beschrieb das Ganze als Auflösung und Aufteilung der Allmende und als »Verdrängung der armen Bevölkerung von Teilen des Landes« 19 in die Städte. Marx selbst nannte den Reichtum und das Kapital aus solchen gewaltsamen Enteignungen, die »ursprüngliche Akkumulation«, die mit dem »Scheidungsprozess von Produzent und Produktionsmittel« entsteht.20 Dabei beraubten die Feudalherren die Bäuer:innen ihres produktiven Vermögens, indem die gemeinsam genutzten Wälder und Felder privatisiert wurden, so dass sie sich nicht mehr selbst versorgen konnten und folglich gezwungen waren, in den Fabriken für Lohn zu arbeiten. Landlose Bäuer:innen wurden so zu Arbeitsmaschinen.

Silvia Federici (*1942), politische Philosophin und Feministin, bietet hierzu eine erhellende Erklärung: Der Kapitalismus ist als Gegen-Revolution gegen die aufkommende, freie Gesellschaft des Spätmittelalters zu betrachten. Die Zeit nach der Pest von 1350 bis ca. 1525 gilt als Hochphase des bäurischen Reichtums in Europa, denn durch den Bevölkerungsschwund aufgrund des Massensterbens konnten die Bauern ihren Lohn, den sie von den Feudalherren bekamen, stets hochhalten, da es über lange Zeit zu wenige Bauern gab, die Herren aber dennoch Nahrung benötigten.21 Mit dem Bevölkerungswachstum im 16. Jahrhundert verschlechterte sich dieser Zustand wieder, gleichzeitig wurden die Feudalherren immer mächtiger. Die Zwölf Artikel der Bauernschaft in Schwaben von 1525, mitten im sogenannten Deutschen Bauernkrieg als Flugschrift fast 25 000 Mal gedruckt, verlangten unter anderem die Rückumwandlung der Wälder, Wiesen und Felder in Gemeingut, doch dafür war es längst zu spät. Die Aufstände der Bauern wurden überall niedergeschlagen. Neben ihnen waren es aber vor allem die aufgeklärten, wissenden und weisen Frauen, die ein Dorn im Auge der Kirche und der Feudalherren waren. Reproduktives Wissen, etwa der Empfängnisverhütung, als Gemeingut bzw. als Commons, wurde bald verteufelt und gezielt verdrängt. Die Hexenverbrennungen und Bauernaufstände des 15. bis 17. Jahrhunderts sind Symptom eines langen, gewaltsamen, soziopolitischen Differenzierungsprozesses, der nicht nur die Körper vormals sich selbstversorgender Menschen in Arbeitsmaschinen transformierte, sondern besonders die Frauen ihrer Freiheiten und Wissenskulturen beraubte und so zurichtete, dass sie auf die Reproduktion von Arbeitsmaschinen reduziert wurden.22

Die Schwelle zum Frühkapitalismus ist eine Fundgrube vergessener Kontexte der europäischen Vergangenheit und bietet gleichzeitig erhellende Parallelen zu den Transformationsprozessen der letzten Jahrzehnte. Darüber hinaus ist diese Zeit auch für eine kritische Kulturarchäologie des Tanzens einschlägig. Tanzen wurde in dieser Übergangszeit oft im Kontext seiner Kraft und Gefahr als Auslöser ansteckender Bewegung beschrieben. Gemeint sind Tänze, die in einem eigentümlichen Spannungsfeld zwischen religiöser Massenbewegung, Aufstand, Ekstase und Krankheit verortet sind. 1374 wurden solche Tänze im Rheinland und 1518 in Straßburg beobachtet. Von den Zeitzeugen meist ›Veittanz‹ oder auch ›Johannistanz‹ genannt, wurden diese »mehr oder weniger ähnliche[n] Fälle von unwillkürlichen körperlichen Expressionen, individuellen oder auch kollektiven Tänzen« 23 erst im 19. Jahrhundert als Tanzwut bezeichnet. 1832, noch in Erinnerung an eine der ersten Cholera-Pandemien in Europa, erschien »Die Tanzwuth. Eine Volkskrankheit des Mittelalters« von Justus Hecker (1795–1850), vermutlich weltweit der erste Universitätsprofessor für die Geschichte der Medizin, womit sich die Idee der Tanzwut als Effekt pathologischer Sympathieeffekte etablierte.24

Positive Würdigungen der Tanzwut vor 1900 sind rar und es wäre sicherlich erkenntnisreich gründlicher in die Vergangenheit zu horchen und ihre Geschichte mit jener des Techno-Raves kurzzuschließen. Spätestens mit Friedrich Nietzsche (1844–1900) kam es zur positiven Deutung der Tanzwut. Er bezog sich 1872 in Die Geburt der Tragödie aus dem Geiste der Musik direkt auf die dionysische Kraft kollektiver Tänze des Spätmittelalters und kritisierte jene Gelehrten und Wissenschaftler, die

»aus Mangel an Erfahrung oder aus Stumpfsinn, sich von solchen Erscheinungen wie von ›Volkskrankheiten‹, spöttisch oder bedauernd im Gefühl der eigenen Gesundheit abwenden.« 25

Damit ist der 500-jährige Bogen wieder zurück im 19. Jahrhundert: Das Verschwinden der Commons, der Gemeingüter, der freien Wälder, Felder und der proto-feministischen Wissenskulturen sowie mancher ekstatischer Massentänze im 18. Jahrhundert bildete die Voraussetzung für das Entstehen der Klasse der Eigentumslosen, des Proletariats, das nur noch ihre Arbeits- und Reproduktivkraft verkaufen konnte. Ein Rückblick auf gerade ein Zehntel dieses großen Bogens, das heißt, anstatt auf 500 nur auf 50 Jahre (1970–2020), zeigt, dass die Idee der Commons zwar geschwächt, aber noch lange nicht vollständig vergessen ist. So lange dies noch der Fall ist gibt es Hoffnung.

COMMONING

Die Machtform, die digitale Technologien, Kommunikationsinfrastrukturen und Serverfarmen bestimmt, hat zu Beginn der 2020er-Jahre ein planetarisches Geschwür komputatorischer Macht weniger Firmen, wir nennen sie liebevoll GAFAM (Google, Amazon, Facebook,26 Apple, Microsoft), hervorgebracht. Diese »Machtform eigener Sorte«, so der Literaturwissenschaftler und Gegenswartsarchäologe Joseph Vogl (*1957) operiert indem sie »souveräne Befugnisse, Regierungsaktionen, Geschäfte und Marktoperationen ineinander verfließen« lässt und eigene Regeln, Axiome und Abhängigkeiten generiert, die er »kosmopolitische«, schrankenlose »Energie« nennt, wobei er hierfür Formulierungen von Marx heranzieht.27 Die marxistische Medientheoretikerin Mckenzie Wark (*1961) proklamierte hierzu provokativ den Tod des Kapitalismus, der in den letzten fünf bis zehn Jahren derart mächtig wurde, dass er womöglich anders genannt werden muss. Neuerdings würde nicht mehr nur Arbeit oder Freizeit, sondern auch unsere Geselligkeit,28 und unserer Gemeinschaftssinn, der im medial vermittelten Alltag generiert wird, vermessen, berechnet, verwertet, extrahiert und abgeschöpft.

Diese mächtige Entwicklung gilt es, so die Forderung und der närrische Wunsch dieses Buchs, aufzuheben. Wenn Teile menschlicher Geselligkeiten durch soziale Medien, digitale Netzwerke, Plattformen und andere Formen des Meinungstausches komputiert, verdatet und abgeschöpft werden, dann gilt es hier, kritisch und vehement gegenzusteuern, Widerstand zu leisten, Verlorenes zurückzuholen, andere Wege zu denken und zu gehen. Neue Formen echter Geselligkeit, die gleichzeitig nicht ausschließen, sondern alle, die wollen, mit einschließen, müssen umgesetzt werden. Einer der in letzter Zeit oft angeführten, aber, wie ausgeführt, auch ältesten Ansätze dafür bildet das Commoning.

Commoning bezeichnet die gelungene, solidarische Kooperativität im Vollzug, die gleichzeitig eine Form des Mit-Teilens, des Kommunizierens, aber auch des Mit-Rechnens bzw. Mit-Meinens ist. Commoning ist eine semantische Nachbarin der Kommune, der Komputation und der Kommunikation. Kommunikation ist kein immaterieller Prozess, sondern ein materialistisch-energetischer, der aber mit Technomathematik verschränkt ist. Operationen des Berechnens, der Komputation im Computer und in Computernetzwerken basieren sowohl auf menschlichen als auch nicht-menschlich-technologischen Prozessen, die Signale und Daten generieren, die innerhalb eines Netzwerks gemeinsam genutzt und verwaltet werden, und die als digitale Commons betrachtet werden könnten. Da nun alles digitalisiert werden kann, kann theoretisch auch alles in ein digitales Commons transformiert werden. Weil dabei privates Eigentum aufgegeben wird, verhindert die Transformation in ein Commons, strikt umgesetzt, dass ein Digitalisat ohne Einverständnis aller Beteiligten einfach so zerstört werden kann.29 Personengebundene Daten wären dabei selbstverständlich nicht prinzipiell Teil der Commons, sondern nur unter Bewilligung aller beteiligten Entitäten und unter Vor-behalt.

Die Verbindung von Commoning und Computing greift jedoch viel tiefer. Denn mitunter ist auch die wissenschaftlich-akademische Verortung von Commoning mit dem Aufkommen des PCs, neuer Telekommunikationsnetzwerke und komputatorischer Praktiken während den 1980- und 1990er-Jahren gekoppelt. 1990 erschien Elinor Ostroms (1933–2012) Governing the Commons, ein Buch, in der die Politik- und Wirtschaftswissenschaftlerin den Commons-Begriff nicht nur mit ihrem Konzept der common pool resources aktualisierte, sondern sich dabei auf die Spieltheorie berief und damit die Idee der Commons im Feld der Regierungswissenschaften und der Governance technomathematisch modellierbar machte. Ostroms Theorie der Commons war nämlich weder marxistisch noch soziologisch oder kulturwissenschaftlich geprägt. Ihre Forschung zu den Commons wurde dadurch vor allem von den regierungsunterstützenden Wissenschaften rezipiert. Vielfach gelesen und weiter entwickelt, wurden ihre Arbeiten 2009 mit dem Nobelpreis für Wirtschaftswissenschaften ausgezeichnet, mitten in der Finanzkrisenzeit. Ostrom bestätigte dabei schlicht längst vergessenes Wissen, denn ihr wichtigster Beitrag für die Theorie des Commonings scheint mir eine Erkenntnis zu sein, die bereits mit der erwähnten Magna Carta effektiv wurde, nämlich, dass Commons stets normativ per Gesetz oder Beschluss geschaffen werden müssen und ihre Zugänglichkeit gesichert sein muss. Ostrom beschrieb das Ganze im Schatten des Epistems der ›Institution‹, eines Schlüsselbegriffs der sogenannten New Institutional Economics, die durch die Arbeiten von Oliver E. Williamson (1932–2020) ab dem Ende der 1970er-Jahre an Bedeutung gewann.

Der liberale Ökonom Douglass C. North (1920–2015) bezeichnete das Studium von Verträgen als Kern dieser neuen institutionellen Ökonomik. Institutionen seien nach seiner Theorie keine Personen, auch keine juristischen, sondern Regeln und Gewohnheiten, die Individuen Anreize und Warnsignale in Bezug auf ihr ökonomisches Verhalten liefern.30 Die Veränderung dieser Regelgefüge nennt sich institutioneller Wandel und bewirkt auch eine Transformation, sowohl des Wirtschaftens als auch der Verhaltensformen aller Beteiligten. Folgerichtig waren es die gut verständlichen und einfach formulierten Design-Prinzipien, die Ostroms Governing the Commons populär machten. Darunter waren Regeln und organisatorische Prinzipien wie die klare Grenzziehung was zu den Commons gehört und was nicht, das Prinzips des Vorrangs gemeinschaftlicher Entscheidungen (inkl. Regeländerungen, Regeln bei Verstößen und einfache Konfliktlösungsmechanismen), sowie die gegenseitige Anerkennung oder Einbettung in größere gemeinschaftliche Netzwerke.31 Gerade Ostroms Fokus auf Regeln und Organisationsprinzipien könnte sie zu einer Diskursanalytikerin nach Foucault machen, gleichzeitig hätten Commoning und Computing in ihren Theorien dazu näher zusammen rücken müssen. Dies geschah aber erst später und nicht auf Anhieb, sondern etappenweise. Die Basis für diese längst fällige Synthese wurden jedoch bereits in den späten 1990er-Jahren gelegt.

Komputation spielte derweil in Ostroms Forschung, die wohl hauptsächlich in den 1980er-Jahren getätigt wurde, eine rein analytische, keine operativ-synthetische Rolle. Das heißt, sie diente zur Modellierung von Spieltheorie, vor allem, um gegen das berühmte Gefangenendilemma argumentieren zu können. Dieses Dilemma modelliert die Situation zweier Gefangener, die beschuldigt werden, gemeinsam ein Verbrechen begangen zu haben, die aber einzeln vernommen werden und dabei nicht miteinander kommunizieren können. Leugnen beide das Verbrechen, bekommen beide eine geringere Strafe, da ihnen nur eine Tat nachgewiesen werden kann, die weniger hart bestraft wird. Gestehen beide, bekommen beide dafür eine hohe Strafe – wegen ihres Geständnisses aber nicht die Höchststrafe. Gesteht jedoch nur einer der beiden Gefangenen, geht dieser als Kronzeuge straffrei aus, während der andere als überführter, aber ungeständiger Täter die Höchststrafe bekommt. Das Dilemma besteht nun darin, dass sich beide entscheiden müssen, entweder zu leugnen und mit dem anderen zu kooperieren oder zu gestehen und den anderen zu verraten. All dies muss entschieden werden ohne die Entscheidung des anderen Gefangenen zu kennen. Das Dilemma soll auf perfide Art zeigen, wie individuell-rationale Entscheidungen zu kollektiv schlechteren Ergebnissen führen können und damit unseren Glauben an absolute Wahrheiten herausfordern. Das Dilemma ließ sich mathematisch lösen, doch zunächst plädierte Ostrom für einen kritischen Blick auf die modellierte Situation selbst: Individuen als Gefangene zu betrachten sei unproduktiv und einschränkend, stattdessen sollte man durch institutionellen Wandel, das heißt durch Änderung der Regeln und Operativität, die Einschränkung eines Gefängnisses als Institution derart ändern, dass sie akzeptabler oder ganz aufgehoben werden und dass es insgesamt zu einer erhöhten Selbstbestimmung aller Beteiligten kommt. Damit könne auch die Tragik der Allmende, die der pessimistisch-rechtskonservativer Sozialbiologe Garrett Hardin (1915–2003) Ende der 1960er-Jahre popularisierte, verhindert werden.32

Dass Hardins Tragik der Allmende mit dem Gefangenendilemna und der Spieltheorie in einem Atemzug genannt wird, scheint ein Effekt späterer Diskursproduktion zu sein. Im Dezember 1968 in der renommierten Zeitschrift Science erschienen, adressierte der Artikel vor allem das Problem des Bevölkerungswachstums, das Angesichts der limitierten Ressourcen des Planeten gestoppt werden müsse. Dabei läge kein Optimierungsproblem vor, sondern eine moralische Frage. Damit wies Hardin auf John von Neumann (1903–1957) und Oskar Morgenstern (1902–1977) hin, die bewiesen hätten, dass es unmöglich sei, zwei oder mehrere Variablen gleichzeitig zu optimieren. Der Hinweis auf die Spieltheorie geschieht nicht im Fließtext, sondern im Literaturverzeichnis, in dem die 1944 erschienene Theory of Games and Economic Behavior aufgelistet wurde.

Hardin setzte nicht auf ökonomische Rationalität, sondern auf natürliche Selektion und moralische Gewichtung, denn nur der Aufbau gegenseitiger Zwangsverhältnisse würde erfolgreich sein. Hardins konservative Moral ging soweit, dass sie sogar das Recht des Gebärens als Commons aufzugeben verlangte.33 Entsprechend ist Hardins rechte Kritik am bürgerlichen Liberalismus und dem Glauben an eine dezentral organisierte unsichtbare Hand, die als Aggregationseffekt vernünftiger Handlungen in die korrekte Richtung lenken würde, einzuordnen. Sie geht davon aus, dass es Rationalität als solche nicht gäbe, denn alles muss moralisch-normativ erzwungen werden. All diese höchst fragwürdigen Argumente finden weder bei Ostrom noch bei anderen, die sich auf Hardin beziehen, Erwähnung. Bei der spieltheoretischen Untermauerung der Hardinschen ›Tragik der Allmende‹ ab den 1970er-Jahren kann damit von einer technowissenschaftlichen Reinwaschung einer rechts-konservativen Ideologie ausgegangen werden.

Die operativ-mediale Komponente der Komputation fand spätestens mit der Verbreitung des WWW ab den 1990er-Jahren Einzug in den Bereich der Commons. Commoning konnte nicht nur in Form von Modellen algorithmisch berechnet werden, sondern vollzog, zeitigte und rhythmisierte sich mitunter auch algorithmisch. Juristische und komputatorische Agenturen, das heißt Gesetze, Regeln, Institutionen und Algorithmen, Protokolle und Codes näherten sich damit kontinuierlich an. Es war vermutlich kein Zufall, dass ein Rechtswissenschaftler namens Yochai Benkler (*1964) die ›digitale‹ Variante von Commoning als Commons-Based Peer-Production bezeichnete. Dass er seine Theorie nicht bereits in den 1990er-Jahren, sondern erst Ende 2002 genau in der fast vergessenen Zwischenzeit nach dem 11.9.2001 und dem endgültigen Platzen der Dotcom-Blase artikulierte, war ein Effekt seiner historischen Lage. Denn genau in dieser kurzen Phase der 2000er-Jahre, ein Jahrzehnt vor dem Aufstieg der GAFAM, schien die Commons-Based Peer Production eine ernst zu nehmende Alternative zu rein profitorientierten Produktionsweisen zu bieten. Hintergrund seiner Untersuchung bilden die neuen Formen des vernetzten Austausches, der Verbreitung von Wissen und freier Software, auch Free  /  Libre Open Source Software (FLOSS) genannt, über das Internet. Der Erfolg von GNU  /  Linux, ein Computerbetriebssystem, das seit 1992 als offener Programmcode frei zugänglich ist und damit dezentral weiter entwickelt werden darf, zeigte, wie wirkmächtig alternative Produktionsweisen werden können. Dies zeigte sich etwa darin, dass GNU  /  Linux um 2000 als Operationssystem für Server – kombiniert mit Apache, mysql und PHP – zur Standardausführung von Webservern weltweit wurde. Für eine kurze Zeit schien es möglich und selbstverständlich, dass in naher Zukunft alles Wissen und alle Informationsgüter zu Commons werden und für immer von Eigentum befreit werden könnten.

Benklers Coaseʼs Penguin, or, Linux and ›The Nature of the Firm‹ erschien 2002 im Yale Law Journal, einer der renommiertesten Zeitschriften der Rechtswissenschaft, und ist damit als ambivalente Analyse der genannten Phänomene sowohl auf der Seite der neuen gemeingüterorientierten Produktionsweisen als auch auf der Seite des bürgerlich-liberalen Kapitals und der Regierungswissenschaften zu verorten. Trotz seiner Ambivalenz wurde der Artikel zum Referenztext der alternativen digitalen Commoning-Bewegung, weil Benkler darin detailliert herausarbeitete, dass die Commons-Based Peer-Production auf Organisationsprinzipien basiert, die weder jenen einer Firma noch jenen des freien Marktes ähneln, sondern einen dritten Weg gehen. Damit waren Organisationsweisen gemeint, die weder durch vorgegebene Hierarchien und Top-Down-Regeln bestimmt werden, wie es in großen Firmen üblich ist, noch durch Steuerungsmechanismen des freien Marktes, die auf Preisen und Tauschprozessen beruhen, gezeitigt werden. Stattdessen seien sie durch die gemeinsame, gleichberechtigte Zusammenarbeit, das Verfolgen gemeinsamer Interessen, das freiwillige Teilen und Austauschen von Informationen geprägt.

Laut Benkler würden kollaborative Produktionsnetzwerke vor allem ein altes Informationsproblem neu angehen: Wie wissen die Kollaborateur:innen, was zu tun ist, um möglichst produktiv zu sein? Wie können Probleme, die in interpersonalen Gemeinschaften gut gelöst werden können, auch auf transpersonaler, gesellschaftlicher Ebene angegangen werden? Der freie Markt löst dieses Problem selbstorganisierend in dem erstens Antworten in Preisen und Marktwerten gesucht werden und zweitens: die damit einhergehende Komplexitätsreduktion bewirkt, dass alle wissen, was zu tun ist. Firmen lösen dieses Problem, indem die Manager:in aus der Vielfalt der Möglichkeiten, die besten selektieren und entlang der Befehlskette gemäß ihren Anweisungen operiert wird.34 Hier regelt die Manager:in hierarchisch zentral was im Team zu tun ist. Die Firma hegt also die Möglichkeiten ein und strukturiert sie. Der Markt strukturiert durch Vereinfachung und lässt die Marktteilnehmer:innen selbst entscheiden. Es entstehen dynamische Zuweisungen und Transaktionen.

Was wäre, wenn Produktionssysteme wie die Firma und der freie Markt, wortwörtlich als Informationsnetzwerke verstanden werden? 35 Dies ist keine nachrichtentechnische Frage mehr, sondern ein komputatorisches, operativ-synthetisches Problem: Ein Problem der Modellierung. Eine Firma operiert mit einer vorstrukturierten Verkabelung, die als Infrastruktur statisch und relativ unflexibel, dafür aber gewinnoptimiert ist, während auf dem freien Markt die Verkabelung anhängig von den Preisen dynamisch ist und durch ein weit verzweigtes Netzwerk jeweils kurzfristig hergestellt wird. Dabei sind die Kosten für die Herstellung der Verbindungskanäle relativ hoch. Botschaften sind Eigentum, müssen sicher und unversehrt von A nach B übertragen und das Ganze muss oft vertraglich geregelt werden. Diese hohen Verbindungskosten auf dem freien Markt wurden bereits in den 1930er-Jahren durch den britischen Wirtschaftswissenschaftler Ronald Coase (1910–2013) in The Nature of the Firm beschrieben. Laut Benkler argumentierte Coase dabei, das Firmen diese Kosten, später Transaktionskosten genannt, reduzieren können. Damit wurde die wirtschaftstheoretische Legitimation großer Firmen besiegelt.

Das war in den 1930er-Jahren. Die Commons-Based-Peer-Production indes, hat laut Benkler gegenüber dem Markt und der Firma folgende Vorteile: Um das Problem der korrekten Information zu lösen, basiert die Peer Production erstens, ähnlich wie beim freien Markt, auf dezentraler Informationsspeicherung und -übertragung,36 während zweitens, Einhegungen von Information durch Eigentum und die einhergehende Konkurrenzsituation beim Markt für einen schrankenlosen Übertragungsprozess hinderlich sei, gäbe es bei den für alle zugänglichen und gemeinschaftsorientierten Commons keine Beschränkungen, womit Transaktionskosten reduziert werden. Die Teilnehmer:innen entscheiden jeweils selbst und dezentral, welche Aufgabe durchzuführen ist und welche nicht. Dabei sei es aber drittens wichtig, Regeln und Mechanismen einzuführen, um wiederkehrende Fehlentscheidungen zu verhindern:

»Peer production provides a framework within which individuals who have the best information available about their own fit for a task can self-identify for the task. This provides an information gain over firms and markets, but only if the system develops some mechanism to filter out mistaken judgments that agents make about themselves.« 37

Die anfallende Erhöhung der Transaktionskosten sind im Vergleich zu jenen, die durch Eigentum und Einhegung anfallen, niedrig. Doch besteht hier auch eine erhöhte Selbstverantwortung jeder Teilnehmer:in, so dass entsprechende Lernmöglichkeiten angeboten werden müssten. Pädagogisches Wissen und Strategien werden hier kritisch, ebenso die Fähigkeit und Gelassenheit, mit Komplexität umzugehen. In diesem Sinne gibt es bei einer Peer Production idealerweise keine simplen Entscheidungsprinzipien mehr, so wie sie beim gleichgewichtsoptimierten Markt noch vorzufinden sind. Dass dies alles nicht einfach zu bewältigen ist, zeigt das vielfache Scheitern in diesem Bereich.

Waren Information und Wissen seit jeher eher lose mit Ressourcen gekoppelt, so waren die Kosten für ihre Herstellung, Speicherung, Übertragung und Prozessierung bis zu den 1980er-Jahren doch eher hoch. Mit der daraufhin zunehmenden Digitalisierung änderte sich die Situation: Speichermedien, Computer, Bildschirme und andere Geräte wurden günstiger. Die Transaktionskosten reduzierten sich damit massiv. Dieser Aspekt ist laut Benkler jener, der die Commons-Based-Peer-Production mit und im Internet von den durch Ostrom beschriebenen materiellen Commons der Bäume oder Fische, unterscheidet. Transaktionskosten werden jedoch schon immer nur scheinbar reduziert, denn eigentlich werden sie durch Externalisierung, das heißt durch Abschiebung und Vertuschung lediglich unsichtbar gemacht.

Wie erwähnt arbeitete der Rechtswissenschaftler Benkler den mächtigen Firmen oder Regierungsorganen zu, indem er in dem benannten Artikel immer wieder Empfehlungen für Firmen gab, wie sie trotz FLOSS und Peer-Production Gewinne erzielen können, etwa durch indirekte Aneignungsprozesse, das heißt durch die Fokussierung auf Hardware, was zum Beispiel auch Apples Gewinnstrategie seit 2007 ist. Seine Hinweise auf die produktiven Stärken und die Steigerung der Produktivkraft im Bereich der Wissensproduktion durch Projekte wie NASA Clickworker ist als Zuspiel an profitgierigen Unternehmen zu verstehen. NASA Clickworker als Beispiel einer wissenschaftlichen Erkenntnisproduktion anzuführen, war wohl nicht böswillig, allerdings weist der Name dieses Projekts aus heutiger Sicht, gefährliche Ähnlichkeiten auf mit Ansätzen, die auch im jüngsten digitalen Kapitalismus durch Großfirmen wie Amazon, vor allem in der bereits erwähnten Plattform, die sie ›Mechanical Turk‹ nennen, Eingang fanden.

Der Australisch-Britische Medienwissenschaftler Nathaniel Tkacz (*1981) schreibt im Zuge seiner einschlägigen Analyse der Blockchain-Technologie:

»What seems pertinent is that peer production offers no clear guarantees in terms of a pathway out of market societies. […] It can be made to fit very well within existing liberal economic ideals (Benkler), and actual instances of peer production can easily be deployed to produce their others, that is, peer technologies can become market technologies.« 38

Wie lässt sich sicherstellen, dass gemeinnützige Technologien nicht wieder in profitorientierte umschlagen? Denn genau dies ist inzwischen geschehen.

Knapp 20 Jahre nach dem Erscheinen von Coaseʼs Penguin, or, Linux and ›The Nature of the Firm‹ 2002, scheint die Realisierung des Traums einer weltweiten Verbreitung des Peer-Production-Prinzips weiter weg denn je. Der unheimliche Aufschwung der GAFAM seit 2015 aus den Trümmern der Finanzkrise 2008 / 2010 und das Erstarkens der Rechten, beschleunigt durch die sogenannte ›Flüchtlingskrise‹ und die Triumphe einiger weniger durch Big-Data angetriebener ›sozialer‹ Netzwerke, die eine gesellschaftliche Fragmentierung beschleunigten, zeigt, dass das Commoning sich als Praxis erst verbreiten und entfalten kann, wenn gewisse Einsichten in einer kritischen Masse populär werden – etwa dass es mit dem aktuellen ›System‹ nicht weiter gehen kann, dass gleichzeitig sowohl Technologiefeindlichkeit als auch Technologiegläubigkeit zu vermeiden ist, und schließlich dass Wissen für alle zugänglich und offen-geschützt sein muss.

Wir müssen demnach endlich anfangen, tanzend einzugreifen! Bevor jedoch Ansätze, Ideen, Richtungen und Überlegungen dazu in Teil II (Kontra-Tanz) artikuliert werden, wird noch das verschränkte Denken praktiziert und die modulierende Präfiguration von KommOnismus mit Komputation, ganz im Sinne von Commoning & Computing, aufgezeigt. Dazu werden in einem weiteren Abschnitt einige der wichtigsten Diskursfäden der letzten 25 Jahre herangezogen, um noch rechtzeitig den Kontra-Tanz heraufbeschwören zu können.

KOMPUTATION & KOMMONISMUS

Komputation als kommOnistische Kooperativität zu konkretisieren bedeutet, bei den Operationen anzusetzen und einige der leichter zugänglichen Schichten profitorientierter Kooperativitäten freizulegen. Gemeint sind Operationen wie, erstens, beherrschen, zerstören, extrahieren, korrelieren, diskriminieren, ausschließen oder ignorieren. Sie beruhen auf vermeintlich neutralen Operationen wie, zweitens, regeln, vergleichen, skalieren, zerlegen, die sich wiederum, drittens, aus arithmetischen Grundoperationen wie Addieren, Subtrahieren, Multiplizieren und Dividieren zusammensetzen. Die Differenzierung profitorientierter, konkurrenzverstärkender Kooperativität in drei unterschied-liche Schichten und Einkapselungen hebt die dazwischenliegenden Übergänge mitsamt der darin jeweils zu verortenden Einführung instrumenteller Intention hervor. Es wird subtrahiert, um zu vergleichen, um später ausschließen, ignorieren oder diskriminieren zu können. Können ist Macht oder schlicht Vermögen, und was ausgeschlossen werden kann, kann auch extrahiert, isoliert und beherrscht werden, um es anderswo als Rohstoff weiter zu verwerten. Im privaten Besitz, als Eigentum und als privates Vermögen, kann es ohne jegliche Legitimierung, ausgeschöpft und zerstört werden.39 Deshalb soll es überall wo es gesamtgesellschaftlich sinnvoll wäre, enteignet werden.

Es wird weiterhin auch multipliziert, um zu skalieren, um zu korrelieren, woraus Regeln gebildet werden, um zu vergleichen und um letztendlich wieder zu extrahieren, das heißt, zu verwerten oder zu entwerten, vielleicht gar zu zerstören. Wichtig ist hier zu betonen, dass die Verknüpfung der verschiedenen Operationen aus den drei Schichten kontingent ist und damit auch andersartig erfolgen kann. Es kann auch subtrahiert werden, um zu vergleichen, um dann aber nicht mehr auszuschließen oder zu ignorieren, das heißt, weder zu entwerten oder zu zerstören, noch zu verwerten, sondern um die Ressource offen-geschützt zu sichern und allen als Commons zugänglich zu machen.

Ein auf Commons basierendes soziales Gefüge nenne ich kommOnistisch. Zu betonen ist, dass die Commons nicht nur Produktionsmittel, sondern gleichzeitig auch Ressourcen und Materialien für die Herstellung der Produkte umfassen. Es sind hier sowohl materielle als auch immaterielle, weniger Energie verbrauchende, quasi-symbolische Ressourcen gemeint, die sowohl in organischen als auch nicht-organischen Körpern, Operativitäten, Institutionen, Kreisläufen, Netzwerken, Kanälen und Regelsystemen eingebettet sind.

Operationen wie Multiplizieren und Korrelieren, aber auch solche wie Optimieren oder Beschleunigen können AUCH im Sinne von kommOnisieren operieren, das heißt sie können statt wie üblich den unendlichen Profit, gleichermaßen ebenso die nie endende Solidarisierung aller planetarischen Vorgänge, Organismen und Materien als oberstes Ziel anstreben. KommOnisieren als Operation bedeutet zweierlei: Erstens den Ausschluss von Ausschluss und zweitens ewige Verbundenheit. Noch allgemeiner formuliert, dürfen (digitalisierte) Arbeitsvorgänge, Operativitäten, Aufgaben, Lösungen, Methoden, Regeln, Protokolle, Gesetze, Vereinbarungen, Verträge implementiert in algorithmische Operativitäten, als Code und Kodex (Gesetz) im Vollzug, nicht dazu führen, dass Wissen, Daten, Dinge, Ressourcen als Commons eingehegt, ausgeschlossen, unsichtbar, unzugänglich, nicht mehr diskutierbar, unveränderbar, als endgültig deklariert oder gar gewaltsam als Eigentum verteidigt werden. Daten und Algorithmen, Ressourcen und Operationen dürfen nicht zu reinen, isolierten Instrumenten entwertet werden. Sie sind, um es nochmals zu wiederholen, eingebettet in ihren Umgebungen und Kontexten. Je komplizierter sie konstruiert, programmiert und gestaltet sind, desto höher ist das Potential, dass sie einen Eigensinn40 und eine Eigenlogik aufweisen, die den ursprünglichen Intentionen der Entwickler:innen diametral entgegenläuft.

Noch genereller formuliert, scheint bereits die Instrumentalisierung, der Einsatz von Komputation für spezifisch definierte Zwecke eine Eingrenzung ihrer mannigfaltigen, oft unentdeckten Potentiale zu bilden. Eigensinnige Potentiale werden bei längerer Beschäftigung und Auseinandersetzung mit einem Instrument, etwa einem Verfahren der algorithmischen Gesichtserkennung, einem Kommunikationsnetzwerk, einer Partnersuche via Plattform, einem Lieferdienst, sichtbar. Mit Instrumenten lassen sich auch Dinge bewerkstelligen, die vermutlich bei ihrer Produktion nicht intendiert waren. Instrumente lassen sich anderweitig nutzen. Oft sind es auch Momente des Zusammenbruchs, der Störung und des Ausfalls, die Glitches, die jenen Eigensinn, jene Eigenlogik zum Vorschein bringen. Dies alles kann sich jedoch nur in einem Rahmen entfalten, der nicht nur jenseits der Profitorientierung liegt, sondern gleichzeitig die Möglichkeit des Ausschlusses durch entsprechende Maßnahmen, Vereinbarungen, Verträge, Regeln, Protokolle und Algorithmen ausschließt. Nur unter solchen gemeinsam gesetzten Rahmenbedingungen ist dysfunktionale Komputation tolerierbar und wertzuschätzen.

Der Ausschluss ist eine absolut brachiale Operation. Er kann zu Verlust und Zerstörung führen. Mit dem Vermeiden von Ausschluss ist jedoch nicht gemeint, dass nun alles vermüllt und verstopft werden soll. Datenspeicher sind begrenzt. Abfall soll vermieden werden. Enorme Abfallberge sind nur im Kapitalismus möglich. Nicht mehr benötigte Ressourcen werden in der kommOnistischen Kooperativität nach dem Recyclingprinzip nachhaltig im Kreislauf gehalten, umgewertet und idealerweise solange zerlegt bis sie nicht mehr giftig und nicht mehr zu entwerten sind. Die Systeme dürfen nicht mehr lecken, alles soll verdichtet werden. Dass dies nicht immer möglich ist, ist klar. Ausschluss muss dabei stets mit Verantwortung einhergehen. Lösungen sollten stets gut überlegte Zwischenschritte bilden. Wir müssten das Halteproblem der Komputation, ein Problem der theoretischen Informatik fruchtbar machen und positiv aufwerten. Dass ein Algorithmus manchmal zu keiner Lösung kommt und ewig nach einer Lösung sucht, obwohl das Problem beschreibbar ist, ist sicherlich verwirrend, doch zeigt es, dass es für mache Probleme keine endgültige Lösung gibt und dass ein allzu frühes Auflösen des Problems nur zu weiteren Problemen führt.

Während der Ausschluss zu vermeiden ist, ist die Unterbrechung hingegen zu begrüßen. Ohne Unterbrechung gäbe es in Computersystemen keine Interaktivität. Prozesse, Vorgänge, Algorithmen, Regeln, Gesetzte und Vereinbarungen im Vollzug müssen sich während ihrer Zeitigung anhalten und unterbrechen lassen, so dass sie reflektiert, überprüft und entsprechend angepasst und verändert werden können. Aber auch bei Unterbrechungen kann Ausschluss erfolgen, wenn beispielsweise nicht alle Instanzen informiert werden und beteiligte Operatoren entkoppelt werden. Dies ist der Fall, wenn Interaktion, Unterbrechung und Dateneingabe zusammenfallen und dabei die Operator:in kaum einen der Prozesse, die mit ihrer Interaktion einhergehen, versteht, registriert oder ihnen folgen kann. Interaktionsdaten am Touchscreen wie Berührungsort, -zeit und -häufigkeit, kombiniert mit Informationen bezüglich der dargestellten Inhalte dienen oft der Erstellung von Benutzerprofilen, die dann das gezielte Bombardement mit spezifisch zugeschnittener Werbung ermöglichen. Die hier extrahierten Interaktionsdaten könnten jedoch, wenn kommOnisiert, für ganz andere, gemeinschaftliche Zwecke analysiert und eingesetzt werden. Aus der Perspektive des Eigentums betrachtet, kommt eine Abspaltung dieser Daten ohne Absprache mit ihren Produzent:innen einem Diebstahl oder einem Raub gleich. Dies ist sicherlich einer der Gründe, weshalb auch hier, wie bei den Wäldern und den Wiesen vor einigen Jahrhunderten, von Einhegung (enclosure) oder von Landnahme die Rede ist.41

Weil der Ausschluss vom Ausschluss alleine allzu normativ wirkt und für intellektuellen Widerstand sorgen könnte, muss dieses Vorgehen zusätzlich, umgestülpt werden und in Vorgänge der medialen Selbstorganisation eingebettet werden: Statt nur Operationen des Entwertens, des Abfalls, des Zerstörens auszuschließen, müssten zusätzlich mediale Wege und Operationen gefunden werden, um Verbindungen zu stärken und aufrecht zu erhalten. Wenn der Neoliberalismus vereinzelt, individualisiert, isoliert und ausschließt, dann soll der KommOnismus zusammenbringen, solidarisieren, integrieren und offen-adaptiv aufnehmen. Darüber hinaus gilt es dabei, nicht nur konkrete Netzwerke, Funktionsweisen, Algorithmen und damit schließlich auch Institutionen direkt zu implementieren, sondern diese auch komputatorisch zu modellieren. Das heißt, präfigurativ, vorausschauend gestalterisch-experimentell zu simulieren. Auch beim Tanzen müssen die konkreten Bewegungen stets mental vorgestellt und präfiguriert werden. Um Digitalität tanzen zu können, müssten wir mitunter unser vorstellendes Denken mit neuen mentalen Choreographien füttern.

Verfahren, Algorithmen, Protokolle und Gesetze im Vollzug müssten als dynamische Institutionen gestaltbar gemacht werden und die Operationsweisen heterogener Interaktionen und Formen des Austausches miteinbeziehen. Institutionen müssten weniger als gesetzte, unveränderliche, architektonische Strukturen wie das Gericht, das Museum, die Universität, der Markt imaginiert werden, sondern als Tanz, als Ensemble, als multiskalar-polyphone Operativität, die mannigfaltige Ausprägungen von Dispositiven der Macht zeitigt, bedingt und provoziert. Nach dem Soziologen Robert Seyfert (*1975) geht es hier aber nicht nur um den sogenannten Menschen:

»Affektkörper, Raum und die Zeiten einer Institution bestimmen sich wechselseitig: die Bewegung der Körper erschafft die institutionelle Temporalität und Räumlichkeit genauso, wie der Raum und die jeweilige Zeit Körper hervorbringen. Um das jeweilige Leben einer Institution zu beschreiben, kann man sich nicht allein auf die Menschen darin verlassen.« 42

Diese auf die frühen 2010er-Jahren datierbare Wendung eines Soziologen hin zum Affektiven und zum Mehr-als-Menschlichen, das heißt zu Gefügen und Institutionen aus Tieren, Pflanzen, Umwelten, aber auch Maschinen, Artefakten und Materien, ist als Echo der bereits klassischen Werke zum Cyborg der feministischen Philosophin Donna Haraway (*1944) aus den 1980er-Jahren deutbar.43 Mitunter zeichneten sich die 2010er-Jahre durch zwei weitere Hinwendungen aus, erstens zum Planetarischen und zur Klimaerwärmung (beispielsweise durch die Erdbeben- und Tsunamikatastrophe am 11. März 2011 in Nordostjapan und die damit einhergehende Nuklearkatastrophe in Fukushima) und zweitens zu neuen Protestformen nach der globalen Finanzkrise 2008 sowie der Occupy-Bewegung 2011. Dabei wurde den damals noch eher neuen, sozialen Netzwerken der Kommunikation, Meinungsäußerung und -verbreitung erst einmal eine positive Rolle zugesprochen.

Dass Atmo-, Geo-, Öko-, Bio-, Semio- und Technosphären auf vielfache Weise miteinander verschränkt sind und Institutionen bilden, die durch Regeln der Komputation, durch Algorithmen, Protokolle, Rhythmen und Fluktuationen bedingt, gerahmt und gezeitigt werden, beruht auf Einsichten, die in den Kultur-, Medien- und Gesellschaftswissenschaften bereits an den 1990er-Jahren, also parallel zu den zuvor beschriebenen Arbeiten im Umfeld Ostroms zu den Commons, herausgearbeitet wurden. Die gesellschaftliche Verbreitung der Komputation in den Universitäten, in Unternehmen, Fabriken, Büros und bis ins Wohn- und Arbeitszimmer, öffnete zahlreiche Diskursfelder, die nicht vergessen werden dürfen. Ich werde zwei davon aufgreifen, synthetisieren und zum Tanzen bringen.

KURZ & KITTLER

Die Diskursproduktion des Foucault-Kittler-Netzwerks und jene der Marx-Kurz-Meretz-Verbindung fanden, wie wohl viele der Diskussionen der 1990er-Jahre, jahrelang in Paralleluniversen statt. Es ist deshalb höchste Zeit, sie miteinander zu koppeln und zu modulieren, um ein anderes Denken und Handeln zu ermöglichen. Als Antagonist zu Friedrich Kittler galt nicht Robert Kurz, sondern die späte Frankfurter Schule um Jürgen Habermas (*1929). Dabei ging die Diskursfeindschaft wohl eher von Kittler aus, dem die habermasianische Auftrennung ›der‹ Vernunft in eine kommunikative Vernunft auf der einen Seite und eine instrumentelle auf der anderen, prinzipiell widerstrebte. Für Kittler, der hier Foucault folgte, ist die Produktion von Vernunft, Wissen, Kultur und Geschichte stets mit Materialitäten und Macht, Körpern und Medien verschränkt und kann von diesen Verschränkungen nicht losgelöst betrachtet werden. Es ist daher auch kein Zufall, dass diese Kritikpunkte bereits in den 1980er-Jahren in der sogenannten Foucault-Habermas-Debatte formuliert wurden.

Kittler, der 1993 von der Ruhr-Universität Bochum an die Humboldt-Universität zu Berlin berufen wurde, lieferte zu selben Zeit mit seiner Essaysammlung Draculas Vermächtnis eine weitere Zuspitzung seiner bereits in Aufschreibesysteme 1800·1900 und Grammophon, Film, Typewriter elaborierten Thesen, Methoden und Ansätze, die in die damals entstehende, deutschsprachige Medienwissenschaft einflossen. Dabei war er in den Jahrzehnten davor einer der ersten, der die Theorien von Jacques Lacan (1901–1981), Michel Foucault, Gilles Deleuze (1925–1995), Félix Guattari (1930–1992) in den deutschsprachigen Raum verbreitete. In den 1990er-Jahren fingen die Arbeiten der französischen Theoretiker:innen langsam an, auch in den deutschen Universitäten Fuß zu fassen. Kittler hatte also eigentlich nichts mehr zu befürchten.

Die Texte in Draculas Vermächtnis wie Die Welt des Symbolischen, Vom Take-Off der Operatoren, Protected Mode oder Es gibt keine Software gehörten bereits Ende der 1990er-Jahre zum medienwissenschaftlichen Kanon und zeugen auch heute noch von Kittlers ausgeprägtem und detailliertem technologischen Medienwissen – sowohl im analog-elektronischen als auch im digital-programmierbaren Bereich, die er elegant mit den erwähnten französischen Theorien und ihren deutschen Referenzen, vor allem Nietzsche und Georg W. F. Hegel (1770–1831), aber auch mit medien-, wissenschafts- und technikhistorischen Agent:innen und Diskursen, meist durch Ausschluss von Marx und der Frankfurter Schule, vermengte und modulierte. Kittler lötete nicht nur Bauteile und Mikrochips in selbstgeätzten Kupferplatinen zu hoch komplexen Gefügen zusammen, etwa einen programmierbaren Klangsynthesizer,44 sondern konnte auch kleine Programme auf der untersten programmierbaren Ebene eines PCs mittels Assemblercode schreiben. Bis zu seinem frühen Tod 2011 arbeitete er mit freier Software und einem Linux-Betriebssystem. So ist denn auch seine berühmt gewordene Definition von Glück aus dem Vorwort von Grammophon, Film und Typerwriter zu verstehen:

»Wem es also gelingt, im Synthesizersound der Compact Disc den Schaltplan selber zu hören oder im Lasergewitter der Diskotheken den Schaltplan selber zu sehen, findet ein Glück. Ein Glück jenseits des Eises, hätte Nietzsche gesagt.« 45

Um Digitalität zu tanzen müssen wir auch lernen wie wir die Schaltkreise digitaler Medientechnologie hören und sehen könnten. Und wir müssen dabei lernen, ›Glück‹ jenseits der liberal-bürgerlichen Modernität zu finden!

Während Medienwissenschaftler:innen die 1990er-Jahre mit dem Siegeszug des PCs, der Verbreitung des Internets und der Popularisierung des Cyberspace assoziieren, darf nicht vergessen werden, dass diese Jahre gleichzeitig die ersten Jahre nach dem Siegeszug der sogenannten freien Marktwirtschaft und dem Fall des Realsozialismus bilden. Der Außenseiter Kurz bot hier mit Der Kollaps der Modernisierung, erschienen 1991, die scharfsinnige These, dass diese Ereignisse nur den Anfang vom Ende des Kapitalismus bildeten. Sie wurde damals von vielen belächelt. Aus der Sicht der 2020er-Jahre und der globalen Finanzkrise 2008  /  2010 hat seine These hingegen an Aktualität kaum eingebüßt. Kurz kritisierte nicht nur die Marktwirtschaft, sondern plädierte für eine »Perspektive der radikalen Abschaffung der modernen Ware und ihres Weltsystems.« Denn durch Marktwirtschaft werden »lebensnotwendige Produktionen ohne Rücksicht auf die Bedürfnisse gestoppt«, gleichzeitig werden aber lebensgefährliche und profitorientierte Unternehmen »durchgezogen«.46 Der freie Markt versagt dadurch tagtäglich auf brachiale Weise.

Der Kollaps der Modernisierung geht kaum auf die damals brandneuen Medientechnologien Computer und Internet ein, doch wird dies schnell nachgeholt. Bereits gegen Ende des Jahrzehnts, 1997, werden in Antiökonomie und Antipolitik – Zur Reformulierung der sozialen Emanzipation nach dem Ende des Marxismus einige überzeugende und folgenreiche Bedingungen und Maßnahmen für den Erfolg sozialer Emanzipationsvorhaben vorgeschlagen, darunter die anspruchsvolle Anforderung

»Elemente […] einer ›mikroelektronischen Naturalwirtschaft‹ zu entwickeln, die sich dem Vergesellschaftungsprinzip des Werts grundsätzlich entzieht und davon nicht mehr erfasst werden kann.« 47

Das Aufkommen der Mikroelektronik, des Computers und der planetarischen Vernetzung positiv zu deuten, ist für einen Technologiekritiker bereits ungewöhnlich, denn üblicherweise wurden die damit einhergehenden Entwicklungen verteufelt. Kurz interessiert sich nicht nur für Ansätze, die gegen kapitalistische Technologien operieren – dies wäre auf Anhieb nachvollziehbar – sondern er argumentiert ganz in marxistisch-hegelianischer Manier für Wege, die die Produktivität von Mikroelektronik vielmehr auch mit den Anliegen seiner radikalen Wertkritik synthetisieren würden und so ihren kapitalistischen Anteil ›aufheben‹ könnten. Keine bloße Instrumentalisierung von Technologien für sozialistische, nicht-profitorientierte Zwecke wurde hier gefordert, sondern die Technologien der Automatisierung und Vernetzung müssten untersucht, angeeignet und umgestaltet werden, wodurch schließlich ihre »kapitalistischen Artefakte kritisch aussortiert« 48 werden könnten. Die Mittel müssen folglich strukturell zu Gegenmitteln transformiert und umprogrammiert werden. Hier bleibt Kurz pragmatisch und schlägt vor, nicht an der Produktion, sondern vor allem am Anwendungsbereich mikroelektronischer Technologien anzusetzen. Er folgerte daraus, dass die »Produktionsbedingungen von Chips«, die »Grundstoffindustrien und die Basisproduktion der Mikroelektronik selbst […] nicht den Grundstein, sondern den Schlußstein [sic] der Transformation bilden.« Vielmehr sei »die Konstitution und Entwicklung sozialer Räume der Emanzipation« 49 wichtig. Dazu sei es nötig, dass wir »aktiv das technologische Potential umformen und damit experimentieren müssen, also etwa eigene Hardware-Kombinationen und eigene Software entwickeln […]« 50. Es gehe darum, an der Aufhebung des Privat- und Staatseigentums der Produktionsmitteln festzuhalten und gleichzeitig eine »Entkoppelung eines sozialen Raums emanzipatorischer Kooperation von Warentausch, Geldbeziehung und abstrakter Leistungsverrechnung« 51 anzustreben. Die Entkopplung müsste an den »Endpunkten« 52 materieller Vernetzungsprozesse, das heißt der planetarischen Lieferketten, Informations- und Datennetzwerke ansetzen. Endpunkte sind auch Orte des Empfangs, des Verbrauchs und der Nutzung von Gütern, Nahrung, Energie, Leistungen, Information, Wissen etc. Es geht, einfach formuliert, um die Priorisierung des Gebrauchswerts und nicht des Tauschwerts wie sonst immer. Letzterer soll vielmehr eliminiert werden.

Diese präfigurative und für die kommenden Jahre höchst bedeutsame Denkbewegung, die Kurz – es sei hier erinnert: 1997 – artikulierte, setzt am Ende an, bei den Leidenden, den Bedürftigen, den Genießenden, den Verbrauchenden, um unverzüglich sofort ihre Passivität in eine Aktivität zu transformieren, die Konsumption mit Produktion verschränkt.53 In der Kurzschen mikroelektronischen Naturalwirtschaft geschieht diese Verschränkung, die gleichzeitig eine Vermittlung ist, nicht mehr durch die ökonomische Wertform,54 das heißt durch monetäre Bepreisung von Gütern, Arbeit und Zeit sowie durch den Warentausch, sondern auf Basis der Bedürfnisse, die gestillt werden wollen, und des Bedarfs der Beteiligten. Es soll dabei eine »vermittelte Identität« 55 von Produzent:innen und Konsument:innen hergestellt werden. Ansätze dafür findet Kurz bei Kooperativen oder Genossenschaften, nicht der Warenproduktion, sondern des Gebrauchs und von Nutzer:innen wie etwa Konsumgenossenschaften, Wohngenossenschaften, genossenschaftliche Kultur- und Bildungseinrichtungen, die sich vernetzen und gemeinsam die planetarische, materielle Vernetzung von den Endpunkten her sektorweise transformieren könnten. Baugenossenschaften könnten Sandgruben oder Ziegelfabriken betreiben oder Kaffeekonsumgenossenschaften den Kaffee von einer Kooperative in Lateinamerika beziehen.

Je komplizierter und je größer die Vernetzung dieser Kooperativen, desto kritischer wird die Vermittlung zwischen Verbraucher:innen und Produzent:innen, die per »stofflich-technische[r] Funktionsteilung« 56 operiert und derartig programmiert und strukturiert werden müsste, dass »die notwendigen Dinge in der notwendigen Quantität und Qualität hergestellt werden.« 57 Es geht hier folglich um die Variante einer eigens entwickelten und programmierten dezentral verteilten und durch Beteiligung vieler sich selbstorganisierenden Planwirtschaft.58 Wie diese Vermittlung konkret operieren soll, wird leider nicht detailliert ausformuliert, doch gibt es drei wichtige Hinweise, die es zu verfolgen gilt.

Erstens, differenziert Kurz zwischen direkter Vermittlung, etwa durch Sprache, und indirekter Vermittlung durch den Wert. Die Vermittlung durch Sprache muss geübt, ausprobiert und verfeinert werden, so dass erst einmal dort angesetzt werden sollte, wo das Verhältnis von Produktion und Konsumption greifbar wird, ohne dass es »dazwischengeschobene Instanzen« 59 gäbe. Es geht hier also um Medien im Dazwischen. Nahrungsmittelproduzent:innen und -konsument:innen, die sich alle am gleichen Ort, vielleicht einem Marktplatz, befinden, könnten sich, so fabuliere ich nun weiter, auch ohne Sprache, aber gleichzeitig auch ohne Warenpreise ›verständigen‹, etwa indem jede:r Konsument:in eine bestimmte Anzahl an Produkten von einer bestimmten Menge an Produzent:innen abnehmen darf. Es würde sich in diesem Gedankenspiel selbstverständlich nicht um eine Variante von Verkauf oder Warentausch handeln, sondern schlicht um Verteilung und Vermittlung. Man müsste aber beachten, dass sich nicht alle Produkte der gleichen Beliebtheit erfreuen, sondern einige mehr, andere weniger, beliebt wären. Da die Produzent:innen ihren eigenen Bedarf gedeckt haben, wäre das Ziel, alle überschüssigen Nahrungsmittel (Gemüse, Früchte etc.) zu verteilen. Es darf nur so viel mitgenommen werden wie auch sinnvoll verbraucht werden kann und so weiter. Wir befinden uns hier, wie erwähnt, im Bereich des Fiktiven. Damit alle Beteiligten zufrieden wären, würden aber relativ wenige Regeln ausreichen, die auch abgeändert werden könnten. Solche Regeln müssten zuvor durch Sprache erst verhandelt, erprobt und, wenn von allen akzeptiert, kommuniziert und eingeübt werden. Dies wäre dann eine direkte Vermittlung durch die Sprache als eingeschobenes Medium. Ein bereits eingeübtes Netzwerk von Konsument:innen-Produzent:innen könnte solch eine Verteilaktion nach einer gewissen Zeit sicherlich auch ohne sprechen zu müssen ausführen. Die direkte Vermittlung mit Sprache scheint hier aber angemessener zu sein, da es mitunter auch um komplexere Sachlagen wie saisonale Dynamiken und Aufwandsunterschiede bei der Nahrungsherstellung geht. Sprache ist bekanntlich ein komplexes Medium mit polysemantischer Offenheit. Bei der indirekten Vermittlung durch den Wert liegt nun die besondere Situation vor, dass es nicht mehr um eine einfache Verteilung geht, sondern die Verteilung indirekt erfolgt, das heißt durch den Warentausch und die Geldbeziehung vermittelt wird. Die Nahrungsproduktion dient hier nicht mehr der Bedarfsdeckung innerhalb eines größeren gemeinschaftlichen Netzwerks, sondern wird auf den Warentausch optimiert. Dies ist zu vermeiden.

Um die angestrebten Konsument:innen-Produzent:innen-Netzwerke möglichst real und richtig aufbauen zu können, muss, zweitens, die gesamte stofflich-sinnliche Reproduktion der Gesellschaft praktisch-kritisch untersucht und »eine Art rücksichtslose ›sozialökolologische Enthüllungspolitik‹« 60 betrieben werden. Es geht hier, so meine Folgerung nicht um eine Reduktion dieser Prozesse und den Versuch, alles auf einen gemeinsamen Nenner zu bringen, um zu vereinfachen oder gleichzuschalten – dies wäre Wertmessung für den Warentausch. Vielmehr soll jeder dieser stofflich-sinnlichen Prozesse der sozialen Reproduktion detailliert vermessen, und dabei sollen spezifische Differenzen und Eigensinnigkeiten herausgearbeitet werden. Dass dies ohne vereinheitlichte, wissenschaftliche Beschreibungssprache und Standards nicht funktioniert, ist klar. Die Vermessung, Technomathematisierung und Operationalisierung darf allerdings auf keinen Fall der Profitgenerierung dienen. Wichtig ist es, Komplexitätssteigerungen zu pflegen und nicht auf Vereinfachung zu setzen, so wie dies etwa durch den Einsatz monetärer Wertformen geschieht.

Kurz ließ sich bei seiner Beschreibung seiner praktisch-kritischen Untersuchungsmethode von den Situationisten inspirieren, die um 1970 ihrerseits vor allem in Paris mittels Spaziergängen, Beobachtungen und experimentellen Kartografien sozialökonomische Landschaften, auch ›Psychogeographien‹ genannt, untersucht haben.61 Da die Landschaften und Städte bereits in den 1990er-Jahren zunehmend von mikroelektronischen, das heißt komputatorisch-algorithmischen Sphären und Rhythmen durchzogen wurden, ist es auch kein Zufall, dass Kurz, drittens betont, dass das »kybernetische […] Regelwerk« jener Sphären genaustens, kritisch-praktisch zu untersuchen wäre, um sowohl die planetarische Vernetzung von Konsument:innen-Produzent:innen-Netzwerken zu operationalisieren und herzustellen als auch Formen der kybernetischen »Subversion« 62 zeitigen zu können. Dies bleibt auch aus der Sicht der 2020er-Jahre aktuell, denn heute bilden die kybernetischen Regelkreise laut dem kalifornischen Medientheoretiker Benjamin Bratton (*1968) planetarisch aufgeschichtete Ebenen von profitorientierten Verwertungsmaschinerien, Algorithmen, Protokollen, Gesetzen, Infrastrukturen, die er the Stack,63 nannte.

DISKURSPOTENTIALE

Dass die Möglichkeiten, die die Kurzschen Ansätze und Theorien aus Antiökonomie und Antipolitik auch noch 30 Jahre später diskutiert werden, ist vermutlich ein Verdienst des kritischen Informatikers Stefan Meretz (*1962), der die deutschsprachige, freie Softwarebewegung stark mitprägte. Bereits 1999 erweiterte Meretz die kurzsche Transformationstheorie mit der Wertkritik als Kernmethode mittels des Begriffs Keimform weiter,64 wobei er sie mit Annahmen der kritischen Psychologie von Klaus Holzkamp (1927–1995) erweiterte. Der Begriff der Keimform wurde im Diskursnetzwerk der sich um die Jahrhundertwende formierenden Oekonux-Bewegung zwar manchmal aufgegriffen, doch scheint er lange Zeit nicht gebraucht worden zu sein. Nicht zufällig lässt Linux und Co., das bis vor einigen Jahren erfolgreichsten Buch von Meretz aus dem Jahr 2000, die Keimform außen vor und setzt dagegen auf ein äußerst simples Modell mit drei linear aufeinander aufbauenden Entwicklungsstufen der Produktivkräfte. Der damit einhergehende Optimismus, den Meretz später besser dosierte, wurde vor allem von Mitstreiter:innen wie Sabine Nuss (*1967) und Michael Heinrich (*1957) kritisiert.65 Die beiden nahmen mit Ernst Lohhoff (*1960), Norbert Trenkle (*1959) und Hans Jürgen Krysmanski (1936–2016) an der ersten Oekonux-Konferenz im April 2001 in Dortmund teil.

Das gemeinsame Anliegen dieses Oekonux-Diskursnetzwerks war, Ökonomie und Linux zusammen zu denken und hatte das Ziel die positiven Prinzipien und Effekte der freie Softwarekultur, jene, die Benkler etwas später einschlägig beschrieb, auch ›offline‹ zu etablieren. Dies blieb auch in der damals jüngsten Generation aufkommender Medienwissenschaftler:innen wie Volker Grassmuck (*1961) und Inke Arns (*1968) 66 nicht unbemerkt. Grassmuck organisierte nicht nur die Wizard of OS-Konferenzen,67 sondern verfasste 2002 mit Freie Software – Zwischen Privat- und Gemeineigentum eine in Kollaboration mit der Bundeszentrale für politische Bildung veröffentlichte Einführung in freie Software und war einer der ersten, der die Oekonux-Bewegung medienwissenschaftlich diskutierte. Doch, obwohl Grassmuck in den 1980er-Jahren an der Freien Universität Berlin studierte und als Autonomer für die Zeitschrift radikal schrieb, ist in Freie Software weder ein Hinweis auf Marx noch auf die ›alte‹ Frankfurter Schule nach Theodor W. Adorno (1903–1969) oder den italienischen Operaismus zu finden. Während seine Darlegung der (Wissens-)Allmende mit Verweis auf Ostrom und ihre Konzepte überzeugt,68 fehlen bei der Herleitung der Geschichte der Commons Hinweise auf Konzepte wie die ursprüngliche Akkumulation. Zwar ist die Rede von ›Schließung‹ nach Max Weber (1864–1920), doch mangelt es an klaren Aussagen und kritischem Potential. Dies zeigt wie unzeitgemäß und randständig die kritisch-marxistischen Diskurse um Kurz und Meretz vor allem in den frühen 2000er-Jahren waren.

Während der Marxismus in den Media Studies und verwandten Fachbereichen spätestens zehn Jahre nach 1989 wieder Teil der Methodenvielfalt wurde, exemplarisch dafür ist Cyber-Marx,69 ein 1999 erschienener Klassiker des Kanadischen Medienwissenschaftlers Nick Dyer-Witheford (*1951), verlief die Rehabilitation im deutschsprachigen Raum etwas langsamer. Sie wurde vor allem durch Jens Schröter (*1970), Leander Scholz (*1969) oder Oliver Marchart (*1968)70 vorangetrieben. Oft geschah die Vermittlung durch poststrukturalistische Denker wie Felix Guattari, Gilles Deleuze oder Jacques Derrida (1930–2004).71

Die Jahrhundertwende war auch jene Zeit in der sich die Medienwissenschaft, vor allem der durch Kittler inspirierte Diskurs, zuerst einmal zur universitären Fachwissenschaft mit Professuren in Weimar, Basel, Berlin und Bochum etablierten musste, bevor sie mit weiteren Diskursen Allianzen schloss, was wiederum einige Jahre dauerte. Marx-Kittler-Synthesen gelangen damit nicht zufällig erst in den späten 2010er-Jahren durch den bereits erwähnten Medienwissenschaftler Schröter in Zusammenarbeit mit Till A. Heilmann (*1974). Die beiden legten ihr wegweisendes Programm der »neo-kritischen Medienwissenschaft« 72 ironischerweise genau in jenem Jahr vor, als die Liste der drei weltweit umsatzstärksten Firmen73 zum ersten Mal alleine aus Unternehmen der Digitalitätsbranche bestand: Apple, Alphabeth (vormals Google) und Microsoft. 2016 war auch das Jahr des Brexit-Referendums, und im November wurde ein rechtskonservativer, frauenfeindlicher Neoliberaler zum Präsidenten der USA gewählt. In beiden Fällen spielte die Infrastruktur der sozialen Netzwerke zur Gewinnung und Radikalisierung von Wähler:innen eine maßgebliche Rolle. Dass unsere Online-Aktivitäten und Emails weltweit durch die Geheimdienste der Supermächte überwacht werden, erfuhren wir 2013 durch den ehemaligen CIA-Mitarbeiter Edward Snowden (*1983). Seit 2016 wissen wir, dass mächtige Gruppen und ihre Netzwerke mittels gezielter algorithmischer Manipulation in sozialen Medien nicht nur das Konsumverhalten, sondern die politische Einstellung und Handlungsfähigkeit der Bevölkerung gesellschaftsbestimmend beeinflussen können.74

Während die Krise des liberalen Bürgertums, das Zerbröckeln ihrer Weltbilder und die Dringlichkeit zum Systemwandel angesichts der Klimaerwärmung Anlass für die Marx-Kittler-Synthese gab, katalysierten bereits die Weltfinanzkrise 2007/  2008 und die Eurokrise 2009/  2010 die weite Verbreitung von Commoning. Ende 2009 erhielt Ostrom den Wirtschaftsnobelpreis für ihre Theorie der Commons. Im Zuge dessen vermischte sich das Commoning-Prinzip mit vielen Ansätzen nicht nur aus der freien Softwarebewegung, des Oekonux-Netzwerks oder der Peer-Production, sondern wurde auch im Kunst-, Architektur- und Urbanistikdiskurs und von marxistischen Denker:innen wie Silvia Federici, Hans Widmer (*1947) oder George Caffentzis (*1945)75 aufgenommen.

Eine diskursstiftende Rolle im deutschsprachigen Raum hatte Silke Helfrich (1967–2021), die Commoning, zuerst Ostrom entsprechend, dann aber von ihr adaptiert, moduliert und transformiert in weiten Kreisen verbreitete.76 Ihre glorreiche Idee, Commoning als Organisation, Choreografie und Zusammenspiel verschiedener ineinander verzahnter ›Muster‹ zu beschreiben,77 wird auch für Digitalität tanzen operativ.

AUFTAKT!

KommOnistische Kooperativität (KoK) besteht, um das bisher Ausgeführte zu resümieren, aus Operationen, die erstens das Solidarisch-Gemeinschaftliche bewahren und dabei vorsorgend der ökosozialen Bedürfniserfüllung dienen. Zweitens zeichnet sich KoK durch eine Verbindung, Vermittlung und Vernetzung von Produktivität und Verbrauch aus. Und sie ist drittens nicht an Warentausch mittels monetärer Vermittlung durch den freien Markt gekoppelt – das Produzierte soll gebraucht werden. Es ist nicht für den Verkauf und den Warentausch bestimmt, allenfalls nur für einen gebrauchenden Tausch. KoK schließt viertens den Ausschluss jeglicher Anteile einer stets offengehaltenen Welt, sowohl mit lebendigen als auch nicht lebendigen Entitäten, weitestgehend aus. Dies bedeutet fünftens, dass vieles für viele zugänglich und dass privates Eigentum stark reduziert wäre. Sechstens erlaubt KoK temporäre Ausschlüsse, jedoch nur mit dem Ziel der Re-Inklusion, mit Verbindlichkeit und Verantwortlichkeit. Die Rohstoffe der ›privaten‹ Zahnbürste können später in anderer Form nützlich werden, werden nicht zu Abfall und verschwinden damit nicht aus dem Netzwerk der Zusammenhänge. Siebtens und vorerst zuletzt ist es für die KoK unerlässlich die Verflechtungen, Netzwerke und Gefüge der globalen Zusammenhänge und Logistik zu fassen, aufzudecken, zu verstehen. KoK kann ohne kritische medien-, kultur- und sozialwissenschaftliche Ansätze, die die technowissenschaftlich implementierte Transformation begleiten, nicht operativ werden. Hier gilt es, die KoK als soziale und gleichzeitig mediale Praktik zu begreifen.

Nach dem Kultursoziologen Andreas Reckwitz (*1970) besteht eine soziale Praktik »aus bestimmten routinisierten Bewegungen und Aktivitäten des Körpers.« 78 Sie ist ein »Komplex aus regelmäßigen Verhaltensakten und praktischem Verstehen«, die »nichts anderes als Körperbewegungen darstellen« und »einen Umgang von Menschen mit ›Dingen‹, ›Objekten‹ bedeuten«.79 Soziale Praktiken lassen sie damit auch als Tanz betrachten. Während die Praxistheorie von Reckwitz auch medientheoretisch informiert ist und den Computer als Artefakt, mit dem bestimmte Praktiken »vollzogen«, »reproduziert« oder auch »erst ermöglicht« werden können, versteht, ist sie trotzdem keine Medientheorie. Denn obwohl Praktiken stets Operationen des sinnhaften »Gebrauchs« sind,80 sind sie nicht nur soziale, sondern auch mediale Praktiken. Die Medienvergessenheit soziologischer Ansätze soll durch die Perspektive medialer Operationen und ihrer Rhythmen als Subeinheit sozialer Praktiken aufgehoben werden. Digitalität tanzen wird dadurch als soziomediale Praktik begreifbar.

Die kanadische Medienwissenschaftlerin Wendy Hui Kyong Chun (*1969) betrachtet die Operativitäten im digitalen Kapitalismus aus der Perspektive der Gewohnheiten und habituellen Muster. In ihrer scharfsinnigen Diagnose der ubiquitären sozialen Netzwerke macht sie nicht nur deren Polarisierungseffekte sichtbar, sondern vor allem das zugrundeliegende Prinzip der Homophilie begreifbar, das sie medienhistorisch im Kontext der graphentheoretisch inspirierten, quantitativen Sozialwissenschaften und Netzwerksanalyse verortet. Soziale Medien verstärken unsere Vorliebe für Gleichartigkeit indem sie uns immer nur jene Informationen zeigen, die unseren eigenen Vorurteilen entsprechen. Ihre algorithmisch gesteuerten Angebote, die sie über den Feed, auf Deutsch Futterzufuhr, offerieren, schütten damit jegliche vorhandene Vorliebe und jedes Interesse für Andersartigkeit zu. Dabei kritisiert Chun, dass Rassismus im Netz damit zu einem unvermeidbaren Effekt einer an-sich nicht bösartigen Vorliebe verharmlost wird und plädiert dafür, die »produktive Kraft des Unbequemen zu denken« und »andere, aber lebbare Muster« 81 einzuüben und zu zeitigen. In diesem Sinne gilt es, Diversität und Anti-Homophilie als Schlüsselprinzipien innerhalb der sozialen und medialen Praktiken einer kommOnistischen Kooperativität zu befürworten.

Die marxistische Feministin Bini Adamczak (*1979) argumentiert ähnlich wie Chun, wobei sie den Begriff der Beziehungsweise starkmacht. Da nur die »Verschiebung von Beziehungen« 82 die soziale Transformation ermöglichen könnte, plädiert sie für solidarische Beziehungsweisen mit »Synapsen und Schaltstellen«,83 die sich gleichzeitig auch als »konfliktfähig« herausstellen müssten.84 Dabei betont Adamczak, dass Solidarität »keine Frage der Haltung [sei], sondern eine Frage der Beziehung. Nicht, wie soll ich mich den anderen gegenüber verhalten, sondern, in welches Verhältnis wollen wir uns setzen?«85 Denn der Fokus auf die Haltung alleine ist, so meine Folgerung, eine zu bürgerlich-liberal individualistische Einstellung. Es muss vielmehr davon ausgegangen werden, dass wir ohnehin stets in einem Netzwerk von Beziehungsweisen situiert sind und es dadurch viel wichtiger ist, die Verbindung, die Interaktion, das Verhältnis, die Beziehung als Ganzes zu pflegen und so als Tanz zu betrachten.

Das Gelingen einer KommOnistischen Kooperativität (KoK) hängt maßgeblich von der Vermittlung zwischen der interpersonalen und transpersonalen Ebene ab. Vulgär soziologisch formuliert, geht es um die Verschränkung von Gemeinschaft und Gesellschaft. Dies ist der Kerngedanke der sogenannten Keimformtheorie wie sie 2018 von Meretz und Sutterlütti in Kapitalismus aufheben formuliert wurde. Sie ist gleichzeitig sowohl eine Aufhebungs- als auch Befreiungstheorie. Commoning wird hier als »ein auf Freiwilligkeit und kollektiver Verfügung basierendes soziales Verhältnis, das eine Inklusionslogik hervorbringt und zu Inklusionsbedingungen führt« definiert.86 Ausgehend vom Konzept der Keimform, das Meretz bereits um die Jahrhundertwende artikulierte, entwickelten die beiden für Digitalität tanzen einschlägige Denkbausteine, die einen »Lern- und Versuchsprozess« 87 in Gang setzen möchten. Ihre Möglichkeitsutopie88 ist in Anschluss an Adamczak eine »Utopie der Beziehungen«,89 die sowohl die solidarische Bedürfnisvermittlung und -erfüllung hervorhebt als auch die Sozialität des Menschen im Anschluss an den Diskursstifter der kritischen Psychologie Klaus Holzkamp (1927–1995) evolutionär begründet.90

Die Keimformtheorie ist ein Ansatz wie sich eine alternative Gesellschaftsform aus einer bereits existierenden entwickeln könnte, um sie letztendlich aufzuheben. Auf der Basis von Vorbedingungen entwickeln sich aus einer Keimform Widerstände zur vorhandenen Gesellschaftsstruktur. Irgendwann entsteht ein Druck zur Veränderung. Krisen operieren hier katalysierend. Sie könnten eine weit verbreitete Notwendigkeit für einen Funktionswechsel provozieren. Die Keimform setzt sich durch. Dies führt zu einem Dominanzwechsel. Die Transformation ist vollzogen. Die interpersonelle Keimform wurde zur transpersonellen Elementarform. Sie durchzieht nun das ganze Netzwerk.91

Grundprinzip der Keimformtheorie ist die solidarisch-vernetzte Handlungsfähigkeit aller Beteiligten. Darauf aufbauend wird eine transpersonelle bedingungsfreie »Inklusionsbeziehung«,92 die Grundlage für eine »Inklusionsgesellschaft« 93 bietet, hergestellt. Dabei geht es nicht nur um das Stillen materiell-existentieller Bedürfnisse, sondern auch um die Befriedigung symbolischer und sozialer Bedürfnisse, was sich dann auch auf die Diversität der Mittel und die medialen Praktiken auswirkt.94 Die Frage nach der Priorisierung, der Bedürfnisse ist dabei nicht gelöst, denn Ressourcenbegrenztheit schafft Konflikte.95 Der Planet Erde hat gleichzeitig auch Bedürfnisse, die beachtet werden müssen. Grundsätzlich müssten die Bedürfnisse jedoch erst einmal gleichmäßig verteilt gestillt werden, so dass es zu keinen größeren Ungleichheiten kommen kann. Hinzu kommt folgende Idee:

»Im Commonismus wird der Gegensatz zwischen meinen und den Bedürfnissen anderer tendenziell aufgelöst. Es bleiben Unterschiedlichkeit und Konflikt, und das ist entscheidend, aber mir geht es tatsächlich besser, wenn es anderen besser geht.« 96

Damit ein Netzwerk von Beziehungsverhältnissen und Bedürfnisrelationen eine gesamtgesellschaftliche Tragweite erreichen kann, wird nicht nur das gesamtgesellschaftliche Erkennen der Notwendigkeit alternativer sozialer Praktik kritisch, sondern die Transformation der Keimform in eine Elementarform muss auch konkret realisierbar sein. Dazu muss die soziale Praktik der Vermittlung in den Blick gedrückt werden. Meretz und Sutterlüttli artikulieren dies wie folgt:

»Die unmittelbaren Beziehungen werden dadurch überschritten, indem sie über Mittel, also in diesem Sinne mittelbar oder vermittelt stattfinden. Beziehungen über Mittel verbinden Unbekannte miteinander in einem globalen Netz der Kooperation.« 97

Da Mittel auch Medien sind, muss Vermittlung nicht nur als soziale, sondern gleichzeitig als mediale Praktik erkannt werden. Gerade medienwissenschaftliche und -theoretische Perspektiven können einen Beitrag für die Konzipierung, Planung und Gestaltung der Operativität und Technizität der auf Reziprozität basierenden, transpersonellen, bedingungsfreien Vermittlung von Inklusionsbeziehungen leisten. Vermutlich wäre die Kollaboration zwischen kommOnistisch inspirierten Aktivist:innen und sympathisierenden Programmier:innen, Ingenieur:innen, Gestalter:innen und Bastler:innen auch ohne Medienwissenschaftler:innen möglich, doch letztere könnten eine hilfreiche und vermittelnde Rolle spielen, wenn es etwa um die Frage geht, wie wir transpersonale Kooperation »sinnlich erfahren« können.98 Hier könnten Einsichten, Ansätze und Experimente aus der Geschichte der Medienästhetik und -kunst helfen. Dass dies nur ein Anfang wäre, soll dieses Buch zeigen.

In Kapitalismus aufheben werden Netzwerke von Beziehungsverhältnissen und Bedürfnissen (sowohl der Menschen als auch der Erde), von Verbraucher:innen und Produzent:innen klugerweise auch als Commons bezeichnet.99 Dies erlaubt nicht nur das Wechseln der Perspektiven zwischen Mikro- und Makroebenen, sondern auch eine rekursive, fraktale Bewegung durch die Ebenen hindurch. Nicht nur Ressourcen sind Commons, sondern auch die Netzwerke, die Ressourcen solidarisch-kooperativ teilen, benutzen und verwalten. KommOnistische Kooperativitäten werden dadurch zu Commons, die sich mit anderen Commons, multiskalar durch mehrere Ebenen hindurch bis zur planetarischen Ebene verflechten könnten. Umgekehrt besteht ein Commons mikrostrukturell betrachtet aus einer Beziehung, einer nicht-trivialen Verbindung, durch die hindurch sich Operationen der Kooperation und Organisation zeitigen. Damit wird die Beziehung an sich zu einem Commons, dessen Grundoperation die Übertragung bildet.

Die Medienphilosophin Sybille Krämer (*1951) setzte sich einschlägig mit den mannigfaltigen medientheoretischen Semantiken, Konzepten und Perspektiven der Übertragung als »kleine Metaphysik der Medialität« 100 auseinander. Der Medienwissenschaftler Georg Christoph Tholen (*1948), dessen Vorlesungen ich in Basel als Student eifrig besuchte, wies der Übertragung die aus medientheoretischer Sicht umfangreichste Geltung zu. So sei Speicherung auch eine über längere Zeit andauernde Übertragung. Und Speicherung kombiniert mit Übertragung bildet die Grundoperationen für das Prozessieren, Verarbeiten und Komputieren. Hier setzt Krämers Medientheorie an, die mitunter auch eine Theorie der Vermittlung ist. Sie beschreibt Übertragung aus der Sicht der verkörperten Materialisierung und Zeitigung mit Engführung auf die Vermittler:in, die Träger:in der Botschaft, den Boten, die Brieftaube, die Schriftrolle oder das Telegram. Die Beziehung zwischen zwei Entitäten wird hier zur »Trinität«,101 das heißt zur dritten Agentur, die die Relation, das Verhältnis zwischen zwei Instanzen, etwa Menschen, bildet: »Der Bote«, argumentiert Krämer, »ist nicht Souverän seiner Rede, und so wundert es nicht, dass er in seiner Übertragungsfunktion ersetzbar ist durch nichtpersonale Entitäten.« 102

Wie würde ein Nachrichtenübertragungsnetzwerk operieren, das die Träger:in der Botschaft nicht wie üblich instrumentalisiert, sondern in dem der Inhalt der Botschaft durch das Trägermedium mitbestimmt, gefiltert, interpretiert und erklärt wird? Für die kommOnistische Kooperativität hätte dies zur Folge, dass die Botschaft der Bedürfnisäußerung, mit Datum und Ort versehen, von der eigensinnigen Botschafter:in gleich in eine Suche nach den Potentialen zur Bedürfunisstillung transformiert werden könnte, wobei die Botschaft beim erfolgreichen Fund einer Empfänger:in, die etwa eine Lebensmittelproduzent:in ist, gleich wieder zur Sender:in zurück kehren könnte. Solch ein algorithmisch implementiertes System wäre sicherlich eine der Grundstrukturen einer größeren KoK-basierten Gesellschaft.

Meretz und Sutterlüttli beschreiben ihre Vision und Version einer kommOnistischen Kooperativität mit Bezugnahme auf die »Stigmergie«,103 ein Konzept aus der Zoologie und Termitenforschung, das später im Wissensfeld der Emergenz innerhalb der Komplexitätsforschung104 Eingang fand und ein konstruktives Interferenzfeld zwischen der politischen, selbstbestimmenden Selbstorganisation und Selbstorganisation aus der Perspektive der Techno- und Naturwissenschaften eröffnet.

Stigmergie ist eine Wortbildung aus den altgriechischen Begriffen Stigmata und Ergon. Stigmata sind Stich-, Wund- oder Brandmale. Die negative Konnotation wird oft übersehen und mit dem Begriff Markierung maskiert. Dieses bewusste Markieren und Spurensetzen, könnte mit Krämer als »Inversion des Botengangs« 105 interpretiert werden. Die Botschaft wird hier vom Empfänger ›gefunden‹ und dekodiert. Ergon wiederum bedeutet Arbeit, das heißt Operativität. Die Botschaft arbeitet. Stigmergie bietet eine auf Operationen und Operator:innen basierende Perspektive von unten. Dabei wird oft angenommen, dass die Operationen alle zusammen als ganzes System einen Mehrwert generieren, der eine einzelne Operation alleine übersteigt. Dass dies jedoch stets ein normatives, definitorisches, wertschöpfendes, oft auch diskriminierendes, konservierendes Denken ist, das nicht mehr haltbar ist, wird oft nicht reflektiert. Es kann ohne Mühe, das Gegenteil behauptet werden. Denn es gibt schlicht mehr einzelne Operationen, die zusammen eine fast unendliche Vielfalt an Gesamtoperation zeitigen können. Dementsprechend ist die weiter oben erwähnte Beschreibung eines Commons, das aus weiteren Sub-Commons besteht, hilfreich nur unter der Bedingung, dass diese Commons stets offen, inklusiv und dynamisch veränderlich sind. Dabei gilt gleiches auch für die Operationen und Operator:innen, die die Commons zeitigen und erst ermöglichen.

Operator:innen werden im technowissenschaftlichen Jargon auch als Agent bezeichnet, vor allem, wenn Selbstorganisation in Computermodellen simuliert, das heißt in Algorithmen programmiert wird. Dies wird im zweiten Teil dieses Buches eingehend behandelt. KommOnistische Stigmergie meint ein selbstorganisiertes, auf Freiwilligkeit basiertes, dezentral operierendes System, das durch seine Aktivität ein Beziehungsnetzwerk symbolischer Mitteilungen über Bedürfnisse zeitigt und dabei hilft, diese mit Möglichkeiten ihrer Stillung zu entsprechen. Wichtig, so betonen Meretz und Sutterlütti sei, dass diese Mitteilungen nicht eindimensionale, rein quantitative, sondern multidimensionale und qualitative Struktureigenschaften106 aufweisen, sonst bestehe die Gefahr, dass das Ganze einem auf Preissignalen beruhenden Marktmechanismus sehr nahe kommt. Dezentrale Netzwerke existieren zwar bereits in vielfachen Realisierungen, doch funktionieren sie nur, weil die Adressaten, im einfachsten Falle wären es zwei, bereits vorhanden sind und die Nachricht nur von A nach B übertragen werden muss. Innerhalb einer kommOnistischen Kooperativität aus Commons müssten jedoch zuallererst die Bedürfnisse ermittelt werden, was vereinfachend als ›Sendersuche‹ bezeichnet werden könnte, um danach erst die entsprechenden produktiven Entitäten zu finden, die diese als Empfänger dieser Bedürfnisse dann befriedigen könnten. Erst dann kann per Vermittlung eine Beziehung zwischen Produzent:innen und Konsument:innen aufgebaut werden. Wie sich diese Vermittlung technologisch-materiell und raumzeitlich vollzieht und was sie alles mit einschließt, ob nur die Informationen übertragen oder gleich die Produkte transportiert werden, wie Inhalt und Formstruktur der Botschaft programmiert sind, ob die Vermittlung vor, während oder nach der Produktion erfolgt und wie die Produktionsprozesse organisiert, aufgeteilt und geplant werden, müsste für jedes Commons detailliert definiert, verhandelt und geplant werden. Hier gilt es nur anzudeuten, dass dies möglich wäre und eine Frage der Rahmenbedingungen ist. Erst muss das Potential einer kommOnistischen Kooperativität erkannt werden, um sie dann Schritt für Schritt jeweils mit Hilfe einiger Grundprinzipien, die Helfrich auch Muster nannte, zu konkretisieren. Wie dies alles als Tanz gedacht und praktiziert werden könnte und welche Einsichten sich aus dieser Denkübung gewinnen lassen könnten, wird im folgenden Teil ausgeführt.

Anmerkungen

11 Zur Unterscheidung von Inter- und Transpersonalität, Sutterlütti  /  Meretz, Kapitalismus aufheben, 24.

12 Vgl. für eine aktuelle Studie diesbezüglich: James Steinhoff, Automation and Autonomy: Labour, Capital and Machines in the Artificial Intelligence Industry, Marx, Engels, and Marxisms, (Cham: Springer International, 2021)

13 Art. 14 Abs. 2, Grundgesetz der Bundesrepublik Deutschland.

14 William Thompson, An Inquiry into the Principles of the Distribution of Wealth, (London, 1824), 369.

15 Ebd., 532.

16 Ebd., 393.

17 Wie im Kapitel 47 der Carta und der begleitenden Carta Foresta von 1217 beschrieben. Vgl. Peter Linebaugh, The Magna Carta Manifesto. Liberties and Commons for All, (Berkeley: University of California Press, 2008), 28 und 42.

18 Karl Polanyi, The Great Transformation, (New York: Farrar & Rinehart, 1944), 35.

19 Werner Plumpe, Das kalte Herz: Kapitalismus, die Geschichte einer andauernden Revolution, (Berlin: Rowohlt, 2019), 118 und 113.

20 Karl Marx, Das Kapital. Kritik der politischen Ökonomie (Erster Band), (Berlin: Dietz, 1969), 742.

21 Silvia Federici, Caliban and the Witch: Women, the Body and Primitive Accumulation, (New York: Autonomedia, 2004), 45.

22 Ebd., 63.

23 Gregor Rohmann, Tanzwut: Kosmos, Kirche und Mensch in der Bedeutungsgeschichte eines mittelalterlichen Krankheitskonzepts, (Göttingen: Vandenhoeck & Ruprecht, 2013), 16.

24 Dazu einschlägig: Ebd., 39.

25 Friedrich Nietzsche, Die Geburt der Tragödie Unzeitgemäße Betrachtungen I–IV Nachgelassene Schriften 1870–1873, 2. durchgesehene Auflage, (München: dtv, 1988), 29. Vgl. auch Rohmann, Tanzwut, 55. Hito Steyerl bezog sich mit einem komputatorischen Kunstwerk auf Tanzwut. Dazu Ayham Ghraowi, »Dance Dance Rebellion«, in Hito Steyerl. I will survive, hg. von Florian Ebner u. a., (Leipzig: Spector Books, 2020), 17–26. 

26 Facebook Inc. nannte sich 2021 in Meta Platforms um.

27 Joseph Vogl, Kapital und Ressentiment: Eine kurze Theorie der Gegenwart, (München: C.H. Beck, 2021), 22; Kapitel »Ökonomisch-philosophische Manuskripte (1844) in Karl Marx und Friedrich Engels Werke. Bd. 40, (Berlin: Dietz, 1968), 531.

28 Im Original »sociability«, Mckenzie Wark, Capital is Dead: Is This Something Worse?, (Verso, 2019), 3.

29 Das antike römische Recht des freien Bürgers, des Familienvaters und Grundbesitzers nannte dies abusus.

30 Douglass C. North, »The New Institutional Economics«, Journal of Institutional and Theoretical Economics (JITE)  /  Zeitschrift für die gesamte Staatswissenschaft 142, Nr. 1 (1986): 230–37, hier 231.

31 Elinor Ostrom, Governing the Commons: The Evolution of Institutions for Collective Action, (Cambridge University Press, 1990), 90.

32 Ebd., 7.

33 Garrett Hardin, »The Tragedy of the Commons«, Science 162, Nr. 3859 (13. Dezember 1968): 1243–48, hier 1248, zweite Spalte.

34 Yochai Benkler, »Coase’s Penguin, or, Linux and ›The Nature of the Firm‹«, The Yale Law Journal 112, Nr. 3 (2002): 369–446, hier 375.

35 Einschlägig zu diesem Gedanken, Armin Beverungen u. a., Markets, (Lüneburg: meson press, 2019), 1 und 7.

36 Benkler, Coase’s Penguin, 375.

37 Ebd., 376.

38 Pablo Velasco González und Nate Tkacz, »Blockchain«, in The Handbook of Peer Production, hg. von Mathieu O’Neil, Christian Pentzold, und Sophie Toupin, (Hoboken, NJ: John Wiley  &  Sons, 2021), 238–53, hier 244.

39 Vgl. dazu Eva von Redecker, Revolution für das Leben. Philosophie der neuen Protestformen, (Frankfurt am Main: S. Fischer, 2020), 28  ff.

40 Dazu Giaco Schiesser, »Medien, Kunst, Ausbildung – Über den Eigensinn als künstlerische Produktivkraft«, in SchnittStellen – Basler Beiträge zur Medienwissenschaft, Bd. 1, hg. von Sigrid Schade, Thomas Sieber, und Georg Christoph Tholen, (Basel, 2005), 257–74. Das Konzept des Eigensinns nimmt Schiesser aus: Oskar Negt und Alexander Kluge, Geschichte und Eigensinn, (Frankfurt am Main: Zweitausendeins, 1981).

41 Mark Andrejevic, »Surveillance in the Digital Enclosure«, The Communication Review 10, Nr. 4 (5. Dezember 2007): 295–317.

42 Robert Seyfert, Das Leben der Institutionen. Zu einer allgemeinen Theorie der Institutionalisierung, (Weilerswist: Velbrück Wissenschaft, 2011), 211.

43 Donna J. Haraway, »Lieber Kyborg als Göttin! Für eine sozialistisch-feministische Unterwanderung der Gentechnologie«, gulliver (Bd. 14)  /  Argument-Sonderband »1984«, 1984, 66–84. Später aktualisiert sie den Cyborg mit dem »Critter«, auf Deutsch Kreatur, siehe Donna J. Haraway, When Species Meet, (Minneapolis: University of Minnesota Press, 2007).

44 Dazu einschlägig: Sebastian Döring und Jan-Peter Sonntag, »apparatus operandi1::anatomie  /  Der Synthesizer des Friedrich A. Kittler«, Friedrich Kittler. Technik oder Kunst?, Tumult. Schriften zur Verkehrswissenschaft 40 (2012): 35–56.

45 Friedrich Kittler, Grammophon, Film, Typewriter, (Berlin: Brinkmann  & Bose, 1986), 5.

46 Robert Kurz, Der Kollaps der Modernisierung: vom Zusammenbruch des Kasernensozialismus zur Krise der Weltökonomie, (Frankfurt am Main: Eichborn, 1991), 270.

47 Robert Kurz, »Antiökonomie und Antipolitik. Zur Reformulierung der sozialen Emanzipation nach dem Ende des ›Marxismus‹«, krisis. Beiträge zur kritik der warengesellschaft 19 (1997): 51–105, hier 73.

48 Ebd., 63.

49 Ebd., 66.

50 Ebd., 67.

51 Ebd., 73.

52 Ebd., 77.

53 Man müsste hier sicherlich auch die Bedürfnisse der planetarischen Ökosysteme berücksichtigen.

54 Vgl. zum Begriff der Wertform, Michael Heinrich, Kritik der politischen Ökonomie. Eine Einführung, (Stuttgart: Schmetterling, 2004), 54  ff.

55 Kurz, Antiökonomie und Antipolitik, 88.

56 Ebd.

57 Ebd.

58 Dass dieses Thema selbst in den 2020er-Jahren aktuell bleibt, zeigt folgender Band: Timo Daum und Sabine Nuss, Hrsg., Die unsichtbare Hand des Plans: Koordination und Kalkül im digitalen Kapitalismus, (Berlin: Dietz, 2021).

59 Kurz, Antiökonomie und Antipolitik, 77.

60 Ebd., 100.

61 Ebd., 101.

62 Ebd., 104.

63 Benjamin H. Bratton, The Stack: On Software and Sovereignty, (Cambridge, MA: MIT Press, 2016).

64 Vgl. Stefan Meretz, »Produktivkraftentwicklung und Aufhebung«, Streifzüge, Nr. 2 (2001): 27–31; Stefan Meretz, »Zur Theorie des Informationskapitalismus (Teil 1)«, Streifzüge, Nr. 1 (2003): 31–37. Darin Seite 32: »Aufhebung ist nur als dialektischer Prozess denkbar, eben nicht bloß als Negation im Kopfe, sondern als Negation der Negation, als bestimmte Negation in der Praxis.« 2008, erfolgte eine sehr harsche Kritik der Oekonux-Bewegung seitens Kurz. Vgl. Robert Kurz, »Der Unwert des Unwissens. Verkürzte ›Wertkritik‹ als Legitimationsideologie eines digitalen Neo-Kleinbürgertums«, exit! Krise und Kritik der Warengesellschaft, Nr. 5 (2003).

65 Sabine Nuss und Michael Heinrich, »Freie Software und Kapitalismus«, Streifzüge, Nr. 1 (2002): 39–43.

66 Inke Arns, Netzkulturen, (Hamburg, 2002).

67 Die erste fand im Juli 1999 im Haus der Kulturen der Welt unter Beteiligung von Wolfgang Hagen, Armin Medosch und Friedrich Kittler statt. Später Beteiligten sich auch Florian Cramer und Felix Stalder. Zur vierten und letzten Konferenz 2006 wurde Stefan Meretz eingeladen.

68 Volker Grassmuck, Freie Software. Zwischen Privat- und Gemeineigentum, Themen und Materialien, (Bonn: Bundeszentrale für Politische Bildung, 2002), 406.

69 Nick Dyer-Witheford, Cyber-Marx. Cycles and Circuits of Struggle in High-Technology Capitalism, (Urbana: University of Illinois Press, 1999).

70 Marchart ist kein Medienwissenschaftler, sondern ein politischer Philosoph und Soziologe, doch zeigt ein Blick in seinen akademischen Lebenslauf um 2000, dass er sich in diesen Jahren eingehend mit Medientechnologien und medienwissenschaftlichen Ansätzen befasste.

71 Vgl. Jens Schröter, Gregor Schwering und Urs Stäheli, Hrsg., Media Marx. Ein Handbuch, (Bielefeld: transcript, 2006).

72 Jens Schröter und Till A. Heilmann, »Zum Bonner Programm einer neo-kritischen Medienwissenschaft«, Navigationen - Zeitschrift für Medien- und Kulturwissenschaften 16, Nr. 2 (2016): 7–36. Vgl. als wegweisender Zwischenschritt, Jens Schröter, »Das automatische Subjekt. Überlegungen zu einem Begriff von Karl Marx«, in Unsichtbare Hände. Automatismen in Medien-, Technik- und Diskursgeschichte, hg. von Hannelore Bublitz, Irina Kaldrack, und Theo Röhle, (Paderborn: Fink, 2013), 215–56.

73 Das Maß hier ist der Börsenwert.

74 Zur Relation von Kapital, Ressentiment und digitalen Medien: Joseph Vogl, Kapital und Ressentiment: Eine kurze Theorie der Gegenwart, (München: C.H. Beck, 2021).

75 Die drei kennen sich über das Midnight Notes Collective, das sich Ende der 1970er-Jahre in New York formierte und sind seitdem im Austausch.

76 Silke Helfrich, »Gemeinschaftsgüter«, in ABC der Alternativen: von »Ästhetik des Widerstands« bis »Ziviler Ungehorsam«, hg. von Ulrich Brand, Bettina Lösch, und Stefan Thimme, (Hamburg: VSA-Verl, 2007), 72–73; Silke Helfrich und Heinrich-Böll-Stiftung, Hrsg., Wem gehört die Welt? zur Wiederentdeckung der Gemeingüter, (München, 2009); David Bollier und Silke Helfrich, Hrsg., Patterns of Commoning, (Amherst, MA: Levellers Press, 2015) und Silke Helfrich und David Bollier, Frei, fair und lebendig. Die Macht der Commons, (Bielefeld: transcript, 2019).

77 Eine einschlägige Weiterentwicklung dieses Ansatzes verfolgt Marcus Meindel mit seinem Projekt Global Commoning Systems.

78 Andreas Reckwitz, »Grundelemente einer Theorie sozialer Praktiken: Eine sozialtheoretische Perspektive«, Zeitschrift für Soziologie 32, Nr. 4 (August, 2003): 282–301, hier 290, rechte Spalte.

79 Ebd., linke Spalte.

80 Ebd., 291, linke Spalte.

81 Wendy Hui Kyong Chun, »Queerying Homophily. Muster der Netzwerkanalyse«, zfm (Zeitschrift für Medienwissenschaft) 18, Nr. 1 (2018): 131–48, hier 148.

82 Bini Adamczak, Beziehungsweise Revolution: 1917, 1968 und kommende, (Berlin: Suhrkamp, 2017), 245.

83 Ebd., 263.

84 Ebd., 274.

85 Ebd., 270.

86 Sutterlütti  /  Meretz, Kapitalismus aufheben, 160  f.

87 Ebd., 88.

88 Ebd., 102.

89 Ebd., 112.

90 Ebd., 115.

91 Ebd., 206  ff., 219.

92 Ebd., 132.

93 Ebd., 149.

94 Ebd., 138.

95 Ebd., 165.

96 Ebd., 196.

97 Ebd., 140.

98 Ebd., 146.

99 Ebd., 166.

100 Sybille Krämer, Medium, Bote, Übertragung: kleine Metaphysik der Medialität, (Frankfurt am Main: Suhrkamp, 2008).

101 Ebd., 115.

102 Ebd., 121.

103 Sutterlütti  /  Meretz, Kapitalismus aufheben, 176  ff.

104 Populärwissenschaftlich auch Schwarmforschung genannt.

105 Krämer, Medium, Bote, Übertragung, 278.

106 Sutterlütti  /  Meretz, Kapitalismus aufheben, 177.

keyboard_arrow_up
Logo small
  • Das ist transcript
  • Programm
  • Förderer
  • Newsletter abonnieren
  • Kontakt
  • Impressum / Datenschutzerklärung