9.2.2026c
Die Eigenschaftsproblematik als systemisches Wirkprinzip – Eine historische und interdisziplinäre Untersuchung
Einleitung
Die Frage, ob und in welchem Umfang die Forschung sich bislang mit der "Eigenschaftsproblematik" als systemischem Wirkprinzip auseinandergesetzt hat, berührt grundlegende Erkenntnisthemen in Philosophie und Wissenschaft. Unter "Eigenschaftsproblematik" verstehen wir hier das erkenntnistheoretische und methodische Problem, wie Eigenschaften (auch Attribute oder Qualitäten) von Dingen und Systemen die Wirkungen in einem Gesamtsystem bestimmen – also ob Eigenschaften als wirkungsbestimmende Faktoren eines Systems erkannt und untersucht wurden. Ein systemisches Wirkprinzip impliziert dabei, dass die Eigenschaften der Elemente oder Komponenten eines Systems nicht isoliert wirken, sondern in ihren Beziehungen und Rückkopplungen das Verhalten des Gesamtsystems prägen. Diese Untersuchung soll überblicksartig darstellen, inwieweit dieses Thema implizit oder explizit in verschiedenen Epochen und Disziplinen behandelt wurde.
Dazu werden wir einen weiten zeitlichen Bogen spannen – von der Antike über Mittelalter und Aufklärung bis in die Gegenwart – und verschiedene Disziplinen beleuchten: die Philosophie (etwa bei Aristoteles, Descartes, Kant, Hegel, Heidegger), die Naturwissenschaften (Physik, Chemie, Biologie), die Technik- und Wissenschaftstheorie, die Anthropologie sowie die Kunsttheorie und künstlerische Praxis. Die Quellen umfassen wissenschaftliche Publikationen (peer-reviewed Paper, Bücher, Essays), historische Texte, Interviews, Online-Archive und Projektberichte.
Das Ziel ist herauszuarbeiten, ob Eigenschaften als systemische Wirkfaktoren erkannt und geprüft wurden, ob man Rückkopplungsmechanismen identifiziert hat, wo Prüfverfahren fehlen und wie solche Lücken zu blinden Flecken, systemischer Drift oder kultureller Verwirrung führen können. Abschließend wird ein Bezug zu einer eigenen künstlerisch-wissenschaftlichen Methode hergestellt – verstanden als Vergleichsmodell – die Elemente wie die Plattform einer "Globalen Schwarmintelligenz", das Konzept des "spielenden Wissenschaftlers ohne Status", definierte Prüfpfade, eine Eigenschaftslogik und Rückkopplungsarchitektur beinhaltet. Damit soll deutlich werden, dass dieser unkonventionelle Ansatz eines Handwerkers und Künstlers eine Lücke schließt, die in vielen disziplinären Zugängen zwar erkannt oder angedeutet, aber nie systematisch operationalisiert wurde.
Antike und Mittelalter: Eigenschaften, Essenzen und Universalien
In der antiken Philosophie finden sich erste Auseinandersetzungen mit der Rolle von Eigenschaften von Dingen. Platon postulierte in seiner Ideenlehre, dass den sinnlich wahrnehmbaren Dingen zeitlose Urbilder (Ideen, eidos) zugrunde liegen – etwa die Idee des Schönen oder des Gerechten – die als allgemeine Wesenheiten existieren. Man kann dies so interpretieren, dass bestimmte Eigenschaften (z.B. Schönheit) als allgemeine Prinzipien real seien und den Einzeldingen ihre Eigenschaften verleihen. Sein Schüler Aristoteles ging einen anderen Weg: In seiner Ontologie unterschied er zwischen dem individuellen Substanziellen und dessen Akzidenzen (zufälligen Eigenschaften). Aristoteles definierte Substanz als das, was "für sich besteht", während Akzidenzen Eigenschaften sind, "die einem Subjekt zukommen, ohne zu dessen Wesen zu gehören". Ein weißer Hund etwa hat die Substanz "Hund", und "weiß" ist eine Akzidenz (eine veränderliche Eigenschaft), die keinen Einfluss auf das Hundesein an sich hat. Aristoteles klassifizierte neun Kategorien von Akzidenzen – darunter Quantität, Qualität, Relation, Ort, Zeit, Lage, Haben, Wirken und Erleiden – die zusammen mit der Substanz die zehn Grundkategorien des Seienden bilden. Diese Lehre verdeutlicht, dass bereits in der Antike Eigenschaften als Analysegröße dienten, jedoch primär im Hinblick auf Wesensbestimmung: Essentielle Eigenschaften vs. akzidentelle (zufällige) Eigenschaften.
Im Hellenismus und der Spätantike wurde diese Eigenschaftsfrage weiter diskutiert, aber entscheidende neue systemische Aspekte traten erst wieder im Mittelalter auf. In der mittelalterlichen Scholastik gipfelte der sogenannte Universalienstreit, der direkt die ontologische Stellung allgemeiner Eigenschaften (Universalien) betraf. Vertreter des Realismus (in Anknüpfung an Platon) behaupteten, dass allgemeinen Begriffen bzw. Eigenschaften eine eigenständige Existenz zukomme – etwa dass die Eigenschaft "Rotheit" wirklich existiert und in allen roten Dingen präsent ist. Dem entgegen standen Nominalisten wie Roscellinus und später Wilhelm von Ockham, die argumentierten, Universalien seien bloße Namen (nomina) ohne eigenständige Wirklichkeit außerhalb des Geistes. Aus nominalistischer Sicht gibt es nur individuelle Dinge und unsere abstrakten Begriffe (wie "Rotheit") existieren nicht an sich – sie haben also auch keine kausale Wirkkraft. Für die Realisten hingegen begründen die Allgemeinwesen gerade die gemeinsamen Eigenschaften der Dinge.
Dieser mittelalterliche Disput zeigt deutlich, dass die Eigenschaftsproblematik – nämlich ob Eigenschaften etwas Eigenes darstellen und wie sie systematisch wirksam werden – ein zentrales Thema war. Allerdings wurde sie auf einer ontologisch-theologischen Ebene geführt (Existenz von Allgemeinbegriffen, göttliche Ideen etc.), nicht im Sinne moderner Systemanalyse. Dennoch kann man sagen: Eigenschaften als systemische Prinzipien wurden zumindest insoweit bedacht, als man fragte, ob ein allgemeines Prinzip (Form, Universalie) die vielen Einzeldinge ordnet und beeinflusst. Die Kontroverse selbst zeigt einen blinden Fleck: keine der Seiten konnte empirische Prüfverfahren angeben, um zu entscheiden, ob Universalien real sind – es blieb ein metaphysischer Diskurs. Damit fehlte ein operatives Verfahren, um Eigenschaften in ihrer Wirkung nachprüfbar zu untersuchen. Das Ergebnis war, dass gegen Ende des Mittelalters der Nominalismus Oberhand gewann (Eigenschaften galten vor allem als Begriffsgebilde), was den Weg bereitete für einen Fokus auf Einzelbeobachtungen in der Renaissance und frühen Neuzeit.
Frühe Neuzeit und Aufklärung: Die Reduktion auf primäre Eigenschaften
Mit der frühen Neuzeit und dem Aufkommen der modernen Naturwissenschaft verschob sich der Zugang zur Eigenschaftsproblematik deutlich. Philosophen und Wissenschaftler wie Galilei, Descartes, Locke und Newton wandten sich von der scholastischen Wesensmetaphysik ab und suchten nach einer mathematisch beschreibbaren, mechanistischen Naturauffassung. Dabei spielten messbare Eigenschaften eine zentrale Rolle: Man unterschied nun zwischen objektiven, quantifizierbaren Eigenschaften und subjektiven, sinnlichen Eindrücken. So formulierte Galileo Galilei, dass das Buch der Natur in der Sprache der Mathematik geschrieben sei – Qualitäten wie Form, Zahl, Bewegung seien fundamental, während Farbe, Klang oder Geschmack nur subjektive Empfindungswerte seien, die nicht zur objektiven Realität der Dinge gehören. Diese Unterscheidung wurde von John Locke klar systematisiert als Differenz von primären und sekundären Qualitäten. Primäre Qualitäten sind jene unabhängig vom Beobachter existierenden Eigenschaften eines Objekts – z.B. Ausdehnung, Gestalt, Bewegung, Anzahl –, ohne die das Objekt nicht denkbar ist. Sekundäre Qualitäten hingegen entstehen erst im Zusammenwirken mit dem Beobachter und seinen Sinnen, etwa Farbe, Klang, Geschmack – sie sind Wirkungen der Dinge auf uns, nicht objektiv in den Dingen selbst vorhanden. Locke beschreibt etwa: Ein Apfel hat primär eine bestimmte Größe, Form und Festigkeit, die wir messen können; seine Röte oder Süße hingegen existieren nur als Idee in unserem Geist, verursacht durch das Objekt. Damit war implizit eine Ausklammerung vieler Eigenschaften aus dem Bereich der "wirklich wirksamen" Faktoren verbunden – nur die primären, quantitativen Eigenschaften galten als systematisch bedeutsam für die naturwissenschaftliche Erklärung, während die sekundären als subjektive Epiphänomene gesehen wurden.
René Descartes verkörperte diese Wende paradigmatisch: Er reduzierte die Essenz der materiellen Welt auf eine einzige fundamentale Eigenschaft, nämlich die Ausdehnung im Raum (res extensa), während die Essenz des Geistigen im Denken (res cogitans) liege. Alle physikalischen Vorgänge sollten nach Descartes auf mechanische Veränderungen der Ausdehnung zurückführbar sein. Die Welt wurde im Cartesianischen Denken zum Uhrwerk, dessen Verhalten durch einige wenige grundlegende Eigenschaften bestimmt ist (Größe, Form, Masse, Bewegung). Qualitative Unterschiede wie Farbe oder Geruch erklärten die Mechanisten als Konfigurationen dieser grundlegenden quantitativen Eigenschaften. Dieser Fokus auf primäre Eigenschaften war außerordentlich erfolgreich, um systematische Kausalgesetze zu entdecken – man denke an Newtons Gesetze, die mit Größen wie Masse, Länge, Zeit und Kraft operieren. Die Kehrseite war jedoch, dass komplexe Phänomene, die aus dem Zusammenspiel vieler Eigenschaften entstehen, zunächst ausgeblendet wurden. Man betrachtete Systeme meist linear und reduktionistisch: Das Ganze wurde als Summe seiner Teile mit festen Eigenschaften verstanden, nicht als Gefüge mit neuartigen, emergenten Eigenschaften.
Gegen Ende der Aufklärung kamen jedoch Reflexionen auf, die blinde Flecken dieser Haltung erahnen ließen. Immanuel Kant etwa übernahm zwar die Unterscheidung zwischen dem Ding an sich und den Erscheinungseigenschaften, ging aber einen Schritt weiter: Er argumentierte, dass unser Erkenntnisapparat die Welt nur in bestimmten Formen wahrnehmen kann (Raum, Zeit) und mittels angeborener Kategorien des Verstandes ordnet (z.B. Kausalität, Substanz, Gemeinschaft). Die wahrnehmbaren Eigenschaften der Dinge – wie Ausdehnung oder Dauer – sind nach Kant teils Resultat unserer Anschauungs- und Denkformen. Das Ding an sich mag Eigenschaften haben, aber diese entziehen sich unserem direkten Zugriff; wir kennen nur die phänomenalen Eigenschaften, die in dem Zusammenspiel von Objekt und unseren Erkenntnisstrukturen entstehen. Damit verwies Kant implizit auf einen systemischen Aspekt der Erkenntnis: Es gibt Rückkopplungen zwischen Subjekt und Objekt. Allerdings betonte er zugleich die Unmöglichkeit, die Eigenschaften der Dinge an sich durch empirische Prüfungen festzustellen – ein methodischer blinder Fleck, der nur durch die kritische Reflexion kompensiert wird, nicht aber praktisch-operativ geschlossen werden konnte. Kants Einsicht kann so gelesen werden, dass jedes Wissenssystem seine eingebauten Grenzen hat: Eigenschaften, die außerhalb des Wahrnehmungs- und Denksystems liegen, bleiben systematisch unzugänglich.
Insgesamt zeigt die Aufklärung einerseits einen großen Fortschritt in der Operationalisierung von Eigenschaftsbegriffen – durch Messung, mathematische Gesetze und empirische Experimente –, andererseits aber auch eine starke Reduktion: Nur bestimmte Eigenschaften (die primären) wurden als wirklich kausal wirksam im System angesehen. Das systemische Wirkprinzip verkürzte sich auf ein mechanistisches Kausalprinzip. Das Verständnis, dass komplexe Systeme möglicherweise Rückkopplungen und emergente Eigenschaften aufweisen, blieb noch unterentwickelt. Gleichwohl legten Denker wie Kant den Grundstein für die Erkenntnis, dass Beobachter und System in Wechselwirkung stehen. So war die Bühne bereitet für das 19. Jahrhundert, in dem sowohl die Ausdifferenzierung der Disziplinen als auch erste holistische Gegenbewegungen stattfanden.
19. Jahrhundert: Differenzierung der Wissenschaften und erste systemische Ideen
Das 19. Jahrhundert erlebte einerseits eine rasante Spezialisierung in den Wissenschaften, andererseits aber auch das Aufkeimen von Ideen, die über den strikten Reduktionismus hinausgingen. In der Philosophie wirkte G. W. F. Hegel, der in seiner Wissenschaft der Logik (1812–1816) ein dialektisches Verständnis von Qualitäten und Quantitäten entwickelte. Hegel argumentierte, dass jeder Gegenstand eine bestimmte Maßbestimmtheit besitzt – ein Zusammenspiel von Qualität und Quantität. Wird diese Maßgröße überschritten oder unterschritten, wandelt sich die Qualität des Gegenstands. In paradox anmutenden Beispielen erläutert Hegel: Das allmähliche Hinzufügen oder Entfernen von Teilen führt irgendwann zu einem Umschlag – berühmtes Gleichnis ist das vom Haarschnitt oder dem Sandhaufen. Ein einzelnes Haar auszuzupfen macht noch nicht kahl, ein einzelnes Sandkorn wegnehmen zerstört noch nicht den Haufen; aber die schrittweise quantitative Veränderung kumuliert schließlich zu einer qualitativen Änderung – der Kopf ist kahl, der Sandhaufen verschwunden. Hegel bemerkte, die antiken Denker (wie Aristoteles) hätten diesen Übergang von Quantität in Qualität bereits in den Paradoxien vom "Kahlkopf" und "Sandhaufen" beschrieben. Er formulierte den Satz: "Alles, was ist, hat ein Maß" – d.h. jedes Dasein hat eine bestimmte quantitativ fassbare Grenze, die zu seinem Wesen gehört; wird diese überschritten, hört das Ding auf, dieselbe Qualität zu sein. Hier tritt deutlich ein systemisches Wirkprinzip zutage: Eine Eigenschaft (etwa die Anzahl der Haare) entfaltet ihre Wirkung nicht linear, sondern es gibt Schwellenwerte und Umschlagspunkte, an denen sich das systemische Verhalten sprunghaft ändert. Hegels dialektischer Ansatz kann somit als früher Vorgriff auf das Konzept emergenter Eigenschaften gelten – die Qualität des Ganzen ist nicht vollständig durch kontinuierliche Quantität der Teile erklärbar, sondern zeigt Phänomene des Übergangs und der Neuentstehung. Allerdings blieb Hegels Darlegung philosophisch-speculativ; konkrete Prüfverfahren, etwa Experimente, um solche systemischen Umschläge in verschiedenen Kontexten nachzuweisen, waren nicht sein Ziel. Die Idee wirkte jedoch in verschiedenen Wissenschaften nach.
In den Naturwissenschaften des 19. Jahrhunderts wurden enorme Fortschritte erzielt, indem man komplexe Phänomene auf grundlegende Eigenschaften zurückführte – aber es zeigten sich auch erste Hinweise auf emergentes Verhalten. In der Chemie etwa gelang Dmitri Mendelejew 1869 mit dem Periodensystem der Elemente eine beeindruckende Systematisierung: Er ordnete die Elemente nach steigender Atommasse und chemischen Eigenschaften, was zur Entdeckung periodischer Gesetzmäßigkeiten führte. Bestimmte Eigenschaftsmuster (Reaktionsverhalten, Atomradius etc.) wiederholten sich periodisch, was es ihm sogar ermöglichte, die Existenz damals unbekannter Elemente mit spezifischen Eigenschaften vorauszusagen. Hier wurden also Eigenschaften (etwa Atomgewicht, Bindungsverhalten) als systemische Faktoren erkannt, die in der Struktur der Materie regelhaft variieren. Dieses Beispiel zeigt, dass Eigenschaften durchaus systematisch untersucht wurden – jedoch in einem streng kontrollierten, reduktiven Rahmen (isolierte chemische Elemente). Die Frage nach Rückkopplungen oder emergenten Eigenschaften in größeren chemischen Systemen (z.B. Reaktionsnetzwerken) stellte sich zu der Zeit noch kaum.
In der Physik wurde Mitte des 19. Jh. mit der Thermodynamik ein weiteres fundamentales Wirkprinzip entdeckt: die Energieerhaltung und der Entropiesatz. Die Entropie kann man als Eigenschaft eines geschlossenen Systems ansehen, die immer zunimmt (2. Hauptsatz der Thermodynamik). Hier taucht erstmals die Idee einer gerichteten systemischen Drift auf – Systeme neigen spontan zu einem Zustand höherer Entropie (Unordnung). Das hatte weitreichende Bedeutung: Es zeigte einen blinden Fleck der rein mechanistischen Betrachtung auf, denn obwohl alle mechanischen Mikro-Gesetze reversibel sind, gibt es auf Systemebene irreversible Prozesse. Die Entropie ist eine systemische Eigenschaft, die nicht auf einen einzelnen Teilchenzustand zurückgeht, sondern das Ensembleverhalten vieler Teilchen charakterisiert. Ludwig Boltzmann und James Clerk Maxwell begründeten die statistische Physik, in der makroskopische Eigenschaften (z.B. Druck, Temperatur, Entropie) als emergente Mittelwerte aus der Statistik mikroskopischer Eigenschaften gedeutet wurden. Damit war anerkannt, dass ein System aus vielen Elementen neue Eigenschaften zeigen kann, die bei Betrachtung einzelner Elemente nicht offensichtlich sind. Auch hier entstand ein methodischer Zugang: statistische Prüfverfahren (Mittelwertbildungen, Wahrscheinlichkeitsverteilungen) zur Erfassung systemischer Eigenschaften.
Während in Physik und Chemie eher unbewusst die Saat für systemisches Denken gelegt wurde, trat in der Biologie des 19. Jahrhunderts das Zusammenspiel von Eigenschaften und Systemumwelt expliziter hervor. Charles Darwin’s Evolutionstheorie (1859) etwa basiert auf Variationen von Erb-Eigenschaften bei Individuen und deren systemischer Auslese durch die Umwelt (Selektion). Kleine Unterschiede in Eigenschaften – z.B. Farbe, Flügelspannweite, Schnabelform – können in einem ökologischen System darüber entscheiden, ob ein Organismus überlebt und Nachkommen hat. Über Generationen führt dies zu systemischer Drift: Die Population verändert sich, es entstehen neue Arten. Darwin erkannte somit, dass Eigenschaften Wirkprinzipien im System Natur sind; bestimmte Merkmale geben in einer Umwelt einen Vorteil, was rückwirkend die Häufigkeit dieser Merkmale erhöht. Hier findet sich eine Rückkopplungsschleife: Umweltfaktoren selektieren Eigenschaften, und die veränderte Population wirkt wiederum auf die Umwelt (z.B. veränderte Räuber-Beute-Verhältnisse). Allerdings verfügte Darwin noch nicht über die Genetik, um die genauen Mechanismen zu prüfen – die Prüfverfahren für genetische Eigenschaften kamen erst mit Gregor Mendels Vererbungsregeln (1866 veröffentlicht, aber erst um 1900 wiederentdeckt). Gegen Ende des 19. Jh. entstand mit dem Wort "Ökologie" (Haeckel, 1866) auch ein Bewusstsein, dass Organismen Systemzusammenhänge bilden. Erste ökologische Studien erkannten z.B., dass die Eigenschaften von Räubern und Beutetieren in Populationszyklen miteinander gekoppelt sind (eine Erkenntnis, die mathematisch erst im frühen 20. Jh. durch Lotka und Volterra untermauert wurde).
Auch in den Sozialwissenschaften des 19. Jahrhunderts finden wir einen Vorläufer systemischen Denkens: Soziologen wie Émile Durkheim (1895) argumentierten, soziale Phänomene hätten Eigenschaften (soziale Fakten), die nicht auf individuelle Eigenschaften reduzierbar sind – eine Gesellschaft hat z.B. eine Selbstmordrate oder Normen, die durch das Zusammenspiel aller Mitglieder entstehen, aber sich nicht allein aus den psychologischen Eigenschaften Einzelner erklären lassen. Hier wurde also die Idee formuliert, dass emergente Eigenschaften auf der Kollektiv-Ebene existieren, die eigene Wirkungen entfalten (Durkheim sprach von "sui generis" Realität sozialer Fakten). Allerdings waren konkrete Methoden, diese systemischen sozialen Eigenschaften zu ändern oder gezielt zu testen, noch schwach – oft beschränkte man sich auf Beobachtung und qualitative Vergleiche zwischen Gesellschaften.
Im Bereich der Anthropologie und Kulturtheorie im späten 19. Jh. herrschte zunächst eine eher reduktive, klassifikatorische Herangehensweise vor (Stichwort Kulturentwicklungstheorien, Rassentheorien), die häufig auf bestimmten physischen oder kulturellen Eigenschaften basierten und lineare Entwicklungsstufen postulierten. Dabei traten gravierende blinde Flecken und kulturelle Verwirrungen auf: So wurden z.B. Schädelmaße oder Hautfarbe als vermeintlich wesentliche Eigenschaften für Zivilisationsgrad oder Intelligenz gehalten – ein Rückfall in eine essenzialistische Sichtweise, die systemische Faktoren (wie sozioökonomische Bedingungen, Umweltanpassungen usw.) ignorierte. Solche fehlerhaften Eigenschaftszuschreibungen führten zu weitreichenden kulturellen Irrtümern mit fatalen sozialen Wirkungen (Rassentheorien, Kolonialismus). In gewisser Weise zeigte dies negativ, wie wichtig es ist, richtige Eigenschaften zu identifizieren und alle relevanten Faktoren im System zu betrachten – denn das Fixieren auf falsche Eigenschaften als kausale Faktoren führte zu Verzerrungen und Drift im gesellschaftlichen System (z.B. institutionalisierte Diskriminierung aufgrund vermeintlicher biologischer Merkmale).
Zusammenfassend war das 19. Jahrhundert geprägt von enormer Ausdifferenzierung des Wissens und dem erfolgreichen Einsatz reduktionistischer Methoden, die aber an verschiedenen Fronten die Grenzen dieses Ansatzes sichtbar machten. Systemische Konzepte begannen durchzuscheinen: Hegels Philosophie wies auf qualitative Umschlagpunkte hin, die Naturwissenschaft erkannte statistische und irreversible Systemgrößen (Entropie) und Variation/Selektion in der Biologie, die Sozialwissenschaft formulierte emergente soziale Eigenschaften. Prüf- und Messverfahren jedoch blieben meist disziplin-spezifisch und linear. Es fehlte noch eine vereinte Sicht, die Eigenschaften als vernetzte Wirkfaktoren in komplexen Systemen betrachtet und interdisziplinär angeht. Diese sollte sich erst im 20. Jahrhundert allmählich entwickeln – teils vorangetrieben durch praktische Problemstellungen (Technik, Krisen), teils durch Weiterentwicklung der Theorien.
20. Jahrhundert: Von der Kybernetik zur Systemtheorie – Feedback und Emergenz
Im 20. Jahrhundert erlebte die Wissenschafts- und Techniklandschaft eine Revolution im Zeichen von System und Komplexität. Die Erfahrungen zweier Weltkriege, rasanter technischer Entwicklung und globaler Vernetzung führten dazu, dass isolierte, lineare Betrachtungen mehr und mehr an ihre Grenzen stießen. Stattdessen traten Rückkopplungsmechanismen und Systemorganisation ins Zentrum der Aufmerksamkeit – und damit die Frage, wie Eigenschaften von Teilen in Schleifen an das Ganze zurückwirken.
Ein Markstein war die Entstehung der Kybernetik in den 1940er Jahren, wesentlich geprägt durch Norbert Wiener. Wiener untersuchte Steuerungs- und Kommunikationsprozesse in Maschinen und Lebewesen und stellte fest: Komplexe Systeme werden durch Feedback-Schleifen gesteuert. Er sah, dass Informationen in Regelkreisen zirkulieren – etwa misst ein Thermostat die Temperatur, vergleicht sie mit dem Sollwert und reguliert die Heizung, woraufhin die Temperaturänderung wiederum zurückgemeldet wird. Solche Rückkopplung (negative feedback für Stabilisierung, positive feedback für Verstärkung) erwies sich als universelles Wirkprinzip in technischen, biologischen und sozialen Systemen. Wiener betonte, dass praktisch alle komplexen Systeme durch Informations-Rückkopplung angetrieben oder stabilisiert werden. Dies war eine völlig neue Perspektive: Die Beziehung zwischen den Eigenschaften (z.B. Temperatur) und dem Systemverhalten (Heizung an/aus) rückte ins Zentrum. Wichtig ist, dass Wiener und die Kybernetiker nicht bei qualitativen Beschreibungen stehenblieben – sie entwickelten mathematische Methoden (Differentialgleichungen, Regelkreistheorie) und technische Apparate, um Feedbacksysteme zu analysieren und zu bauen. Damit wurde das zuvor abstrakte Konzept der Rückkopplung operationalisiert. So konnte man z.B. in der Elektronik Oszillatoren, Verstärker und Regler entwerfen, die gezielt positive oder negative Rückkopplung enthielten. In der Biologie verstand man endlich regelhafte Prozesse wie die Homöostase: der Körper hält z.B. seine Temperatur durch einen Regelkreis konstant (Schwitzen bei Überhitzung, Zittern bei Unterkühlung). Das Vorhandensein solcher Mechanismen beantwortet die Frage, ob Rückkopplungsmechanismen existieren, eindeutig mit Ja – und zwar in so unterschiedlichen Bereichen wie dem Hormonhaushalt, Ökosystemen oder sozialen Organisationen.
Parallel zur Kybernetik entstand die Allgemeine Systemtheorie (Ludwig von Bertalanffy u.a.), die in den 1950ern versuchte, Prinzipien zu formulieren, die in allen Arten von Systemen gelten – unabhängig von ihrer konkreten Natur. Bertalanffy kritisierte das bloße Aufsplittern der Wissenschaft in isolierte Disziplinen und forderte ein ganzheitliches Herangehen, bei dem Eigenschaften des ganzen Systems berücksichtigt werden, insbesondere emergente Eigenschaften, die auf der Systemebene auftreten und nicht bei Betrachtung einzelner Teile. Zum Beispiel hat eine Zelle Eigenschaften (Leben, Metabolismus), die keine ihrer Moleküle besitzt; oder eine Gesellschaft hat eine Kultur, die nicht aus einem Individuum allein hervorgeht. Die Systemtheorie popularisierte Begriffe wie "Das Ganze ist mehr als die Summe seiner Teile", was impliziert, dass neue Eigenschaften aus dem Zusammenspiel entstehen. Allerdings blieb die Allgemeine Systemtheorie teilweise recht qualitativ oder metaphorisch; es dauerte bis zur Entwicklung der Chaos- und Komplexitätsforschung (ab den 1970er/80er Jahren), um diese Ideen in konkreten Modellen durchzuspielen.
In den Naturwissenschaften brachten die Fortschritte des 20. Jh. etliche Beispiele für emergentes und feedback-getriebenes Verhalten ans Licht. In der Physik etwa entdeckte man die Chaostheorie (Edward Lorenz 1963 mit dem Wettersystem als Beispiel): deterministische Systeme können äußerst empfindlich auf Anfangseigenschaften reagieren ("Schmetterlingseffekt"), sodass langfristig Prognosen unmöglich sind. Ein minimaler Unterschied in einer Eigenschaft (z.B. um wieviel Grad es heute an einem Ort wärmer ist) kann durch nichtlineare Rückkopplungen zu völlig anderen Systemzuständen führen. Das war eine direkte Erkenntnis über systemische Drift: Systeme können sich aufgrund interner Verstärkungsmechanismen weit vom Ausgangszustand entfernen, ohne äußere Einflüsse, rein getrieben von anfänglichen Eigenschaftsunterschieden und interner Dynamik. Gleichzeitig erkannte man in der Quantenphysik, dass die Eigenschaften von Teilchen (Ort, Impuls, Spin etc.) nicht unabhängig vom Messprozess sind – der Beobachtereffekt und die Unschärferelation (Heisenberg 1927) zeigten, dass auf mikroskopischer Ebene das System "Teilchen+Messgerät" eine untrennbare Einheit bildet. Eine Messung (Wechselwirkung) ist hier eine Art Rückkopplung: die Eigenschaft des Teilchens wird festgelegt, wobei andere komplementäre Eigenschaften verschwimmen. Dies war philosophisch äußerst bedeutsam, weil es die alte Vorstellung objektiver, feststehender Eigenschaften erschütterte und ersetzte durch ein relationales Konzept – Eigenschaften sind nur im Kontext eines Systems (Experiment, Messanordnung) definierbar.
In der Chemie und Biologie entwickelte sich die Nichtgleichgewichts-Thermodynamik (Ilya Prigogine u.a.), die erklärte, wie in offenen Systemen spontan Ordnung entstehen kann (sogenannte dissipative Strukturen). Ein berühmtes Beispiel sind autokatalytische chemische Reaktionen oder Bénard-Zellen (Konvektionsmuster in erhitzter Flüssigkeit): Hier führen Rückkopplungen dazu, dass sich aus anfangs ungeordneten Bewegungen plötzlich makroskopisch geordnete Strukturen bilden – ein emergentes Phänomen. Solche Selbstorganisations-Prozesse zeigen, dass das Zusammenspiel vieler Komponenten mit geeigneten Rückkopplungen zu neuen, systemischen Eigenschaften führt (z.B. Bildung eines stabilen Wirbelmusters). Prigogine betonte, dass fern vom thermodynamischen Gleichgewicht komplexe Strukturen durch Wechselwirkungen und Rückkopplung entstehen können – gewissermaßen Ordnung aus Chaos. Dies griff auch philosophisch die Frage auf, inwieweit unsere bisherigen Prüfverfahren, die meist auf Gleichgewichtszustände und lineare Analysen ausgelegt waren, ausreichen, um solche Phänomene zu testen. Oft musste die Wissenschaft hier neue Wege beschreiten, wie computerbasierte Simulationen und interdisziplinäre Experimente, um die dynamische Eigenschaftslogik dieser Systeme zu erfassen.
In den Sozial- und Wirtschaftswissenschaften des 20. Jh. kamen systemische Ansätze ebenfalls auf. Ein Beispiel ist die Systemtheorie nach Niklas Luhmann (1960er Jahre), die zwar hauptsächlich soziale Systeme als Netzwerke von Kommunikationen beschreibt, aber das Prinzip der selbstreferentiellen Rückkopplung in den Vordergrund stellt: Soziale Systeme (wie z.B. die Wirtschaft oder Politik) operieren nach eigenen Codes und erhalten sich durch Rückkopplungsschleifen (z.B. Zahlungen im Wirtschaftssystem, Machtausübung im politischen System). Ein anderes Beispiel sind die ökonomischen Modelle von Jay Forrester (Urban Dynamics, 1969; World Dynamics, 1971), welche urbane bzw. globale Entwicklungen mit Hilfe von Computer-Simulationen komplexer Rückkopplungssysteme analysierten. Forresters Weltmodell etwa – bekannt geworden durch den Club of Rome Bericht "Die Grenzen des Wachstums" (1972) – integrierte Bevölkerungswachstum, industrielle Produktion, Umweltverschmutzung, Ressourcennutzung etc. in einem System mit vielfachen Rückkopplungen. Das Modell zeigte, dass ohne steuernde Eingriffe eine systemische Drift Richtung Kollaps eintreten könnte (Ressourcenerschöpfung, Überschreiten ökologischer Kapazitäten). Diese Vorhersagen waren kontrovers: Viele traditionelle Ökonomen kritisierten das Modell, was auf kulturelle Verwirrung hindeutet – unterschiedliche disziplinäre Paradigmen führten zu Verständnisproblemen. Doch methodisch war Forresters Ansatz bahnbrechend: Er verwendete Prüfpfade in Form zahlreicher Simulationsläufe, variiert Eigenschaften (Parameter) systematisch und beobachtete die Auswirkungen auf das Gesamtsystem. Damit wurde der Umgang mit Unsicherheit und Nichtlinearität zumindest prototypisch geübt.
Ein Bereich, der in der zweiten Hälfte des 20. Jh. besonderes Interesse an systemischen Eigenschaften entwickelte, war die Ökologie und Klima-Forschung. Hier erkannte man zum einen stabilisierende negative Rückkopplungen (z.B. Räuber-Beute-Populationen pendeln sich in Zyklen ein, Pflanzen nehmen CO₂ auf und puffern so das Klima) und zum anderen verstärkende positive Rückkopplungen, die gefährlich werden können (z.B. Eisschmelze: Weniger Eis -> mehr absorbierte Sonnenwärme -> Erwärmung -> noch weniger Eis, ein sich selbst verstärkender Kreislauf). Man führte das Konzept der Tipping Points ein – Schwellen, ab denen positive Rückkopplungen das System irreversibel kippen. Ein Beispiel: Wenn die Erderwärmung ein bestimmtes Maß übersteigt, kann die Eisschmelze so rapide werden, dass kein Gegensteuern mehr möglich ist. Solche Forschung zeigt einerseits, dass Rückkopplungsmechanismen heute zentral in der Analyse natürlicher Systeme berücksichtigt werden, andererseits aber auch, dass in vielen Fällen lange Prüf- und Beobachtungszeiträume nötig sind, um sie sicher zu identifizieren – es gibt nach wie vor blinde Flecken (z.B. unbekannte Feedback-Loops im Klimasystem, die erst nach und nach entdeckt werden).
Interessant ist auch, wie die Technik selbst im 20. Jh. diese systemischen Prinzipien verkörpert hat und zugleich neue Herausforderungen brachte. Mit der Digitalisierung und Algorithmisierung entstanden komplexe soziotechnische Systeme (wie das Internet, soziale Medien, automatisierte Handelssysteme), in denen Eigenschaften durch programmierte Regeln in Echtzeit verstärkt oder gedämpft werden. So haben etwa soziale Netzwerke Algorithmen, die bevorzugt Inhalte anzeigen, an denen Nutzer lange verweilen oder stark reagieren – eine Eigenschaft dieser Algorithmen (Engagement-Maximierung) bewirkt eine Rückkopplung: Nutzer sehen mehr von dem, was sie mögen oder was ihre Aufmerksamkeit fesselt, was wiederum ihre Sicht auf die Welt verändert. Studien deuten darauf hin, dass solche algorithmischen Feedback-Loops zur Polarisierung beitragen können, indem sie Filterblasen erzeugen. Ohne dass jemand es explizit beabsichtigt hat, kann die Eigenschaft des Empfehlungs-Algorithmus (nämlich Interaktionen zu maximieren) einen systemischen Effekt haben: extreme oder emotionale Inhalte werden verstärkt, gemäß dem Prinzip der positiven Rückkopplung. Dies zeigt ein modernes Beispiel von systemischer Drift und kultureller Verwirrung: Gesellschaften erleben verstärkte Meinungsblasen und Desinformation, weil technische Eigenschaften der Informationssysteme so wirken. Lange waren solche Effekte ein blinder Fleck in der öffentlichen Wahrnehmung – erst in jüngster Zeit beginnen Forscher, diese Feedback-Mechanismen quantitativ zu untersuchen und Gegenmaßnahmen (gewissermaßen korrigierende Rückkopplungen) zu entwickeln.
Im Bereich Kunst und Kultur vollzog sich im Laufe des 20. Jh. ebenfalls eine bemerkenswerte Hinwendung zu systemischen Sichtweisen. In den 1960er Jahren prägte der Kunsttheoretiker Jack Burnham den Begriff Systems Esthetics. Er beobachtete, dass avantgardistische Künstler begannen, Prozesse, Interaktionen und Umweltsysteme ins Zentrum ihrer Arbeit zu stellen, anstatt abgeschlossene Objekte zu schaffen. Burnham schrieb 1968: "We are now in transition from an object-oriented to a systems-oriented culture. Here change emanates, not from things, but from the way things are done.". Kunstwerke wurden nun oft als offene Systeme konzipiert – etwa ökologische Kunstprojekte, interaktive Installationen oder Performance-Happenings, bei denen das Publikum Teil des Systems ist. Diese künstlerische Praxis brachte spielerisch zum Ausdruck, was Wissenschaftler parallel erforschten: dass das Zusammenspiel von Eigenschaften und Teilnehmern zu unvorhergesehenen Emergenzen führen kann. Künstler wie Hans Haacke arbeiteten mit realen physikalischen und sozialen Systemen (Haackes "Rhinewater Purification Plant", 1972, war z.B. ein in Ausstellungen gezeigtes Wasserkreislauf-System mit Algen – ein ästhetisches wie ökologisches Statement über Feedback und Reinigung). Auch in der Musik entstanden durch Komponisten wie Brian Eno oder in der elektronischen Musik generative Ansätze, bei denen einmal angestoßene Prozesse selbstständig fortliefen und nie ganz gleiche Ergebnisse hervorbrachten (ein musikalisches Pendant zur Emergenz-Idee). Diese Entwicklungen in der Kunst zeigen, wie tief das systemische Denken in die Kultur einsickerte: Man begann ganz selbstverständlich von Netzwerken, Interaktionen, Selbstregulierung und Komplexität zu sprechen. Die Theorie holte dies in Konzepten wie Roland Barthes' Texte als Netz oder in der Architektur mit Christopher Alexander's Muster-Sprachen nach.
Zusammengefasst hat das 20. Jahrhundert der Forschung ein wesentlich erweitertes Verständnis davon gegeben, wie Eigenschaften als systemische Wirkprinzipien fungieren. Insbesondere wurden Rückkopplungsmechanismen in vielen Feldern identifiziert (Kybernetik, Ökologie, Technik) und blinde Flecken früherer Epochen (lineare Kausalannahmen, isolierte Betrachtung) offengelegt. Wo Prüfverfahren fehlten, wurden zum Teil neue geschaffen: Computersimulationen, statistische Methoden und interdisziplinäre Experimente halfen, komplexe Zusammenhänge testbar zu machen. Dennoch blieben auch neue Herausforderungen: Je komplexer die Systeme (z.B. Klima, globale Ökonomie, Internet), desto schwieriger ist es, alle relevanten Eigenschaften zu kennen und zu beobachten. Dies führt uns in die Gegenwart, das 21. Jahrhundert, in dem diese Fragen brennender denn je sind.
Gegenwart im 21. Jahrhundert: Globale Komplexität und kollaborative Intelligenz
Im 21. Jahrhundert hat die Welt eine beispiellose Vernetzung und Komplexität erreicht. Globale Systeme – vom Finanzmarkt über Lieferketten bis zur Biosphäre – interagieren auf vielschichtige Weise. Probleme wie der Klimawandel, Pandemien oder Finanzkrisen machen deutlich, dass systemische Wirkprinzipien überall am Werk sind und oft krisenhaft zutage treten, wenn Rückkopplungen ignoriert oder Eigenschaften falsch eingeschätzt wurden. Gleichzeitig haben wir auch neue Werkzeuge und Ansätze, um damit umzugehen, insbesondere die Möglichkeiten der digitalen Vernetzung und der globalen Zusammenarbeit.
Ein zentrales Merkmal der Gegenwart ist die Datenflut und Rechenleistung, die es erlaubt, komplexe Systeme in nie dagewesener Detailtiefe zu beobachten. Mit Sensoren, Satelliten, Big-Data-Analysen und KI-Algorithmen versucht man z.B. das Klima- und Erdsystem zu verstehen. Hier hat sich gezeigt, dass viele positive Rückkopplungen existieren, die früher unzureichend berücksichtigt wurden – etwa das Tauen der Permafrostböden, wodurch Methan freigesetzt wird und die Erwärmung weiter anheizt (eine Eigenschaft des Bodens – sein Methangehalt – wirkt sich auf das Klima aus, was wieder auf den Boden zurückwirkt). Klimaforscher warnen eindringlich vor solchen Tipping Points, weil sie das System unwiderruflich in einen neuen Zustand versetzen könnten. Regierungen und Gesellschaften ringen nun damit, steuernde Gegen-Rückkopplungen einzuführen (Emissionen reduzieren, CO₂ binden), bevor solche Schwellen überschritten werden. Dieses Beispiel illustriert, dass Eigenschaften als systemische Wirkfaktoren heute durchaus erkannt werden – z.B. gilt der atmosphärische CO₂-Gehalt als kritische Systemeigenschaft – und dass versucht wird, prüfend und regulierend einzugreifen (Klimamodelle testen Emissions-Szenarien, politische Maßnahmen wie CO₂-Bepreisung sollen Feedback schaffen). Dennoch bleibt ein blinder Fleck, insofern man nie alle Parameter absolut sicher kennen kann und immer mit Unsicherheit arbeiten muss. Hier zeigt sich eine kulturelle Verwirrung: Wissenschaftliche Prognosen arbeiten mit Wahrscheinlichkeiten, während Öffentlichkeit und Politik oft nach einfachen Sicherheiten verlangen. Die systemische Natur der Problematik (mit vielen verknüpften Eigenschaften) erschwert die Kommunikation und den Konsens.
Ähnlich verhält es sich in der globalen Wirtschaft. Die Finanzkrise 2008 offenbarte, dass komplexe Finanzprodukte und weltweite Verflechtungen Eigenschaften eines Systems schufen (z.B. Interbank-Abhängigkeiten, Kreditverbriefungen), die lange Zeit unbeobachtet blieben. Kleine Ausfälle konnten sich überraschend stark auswirken (Lehman-Pleite als Dominoeffekt) – hier hatten fehlende Rückkopplungsregeln (wie Regulierung oder Risikopuffer) zu einer gefährlichen Drift geführt. Seither bemüht man sich um "Stresstests" für Banken und bessere Überwachung systemischer Risiken. Doch das Grundproblem bleibt: Im Streben nach maximalem Profit werden oft nur wenige Eigenschaften optimiert (z.B. Rendite), während andere systemrelevante Eigenschaften (wie Vernetzungsgrad, Ausfallkorrelation) vernachlässigt werden. Die Forschung in Ökonomie und Systemrisiken arbeitet daran, Kennziffern und Frühwarnindikatoren für solche systemischen Eigenschaften zu entwickeln – also gewissermaßen Prüfpfade, um systemische Gefahren frühzeitig zu erkennen. Hier kooperieren zunehmend interdisziplinäre Teams (Ökonomen, Physiker, Datenwissenschaftler), was zeigt, dass Disziplingrenzen aufweichen, wenn es um systemweite Eigenschaften geht.
Die Digitalisierung bietet zugleich Chancen und neue Fragen. Einerseits ermöglichen moderne Informations- und Kommunikationstechnologien eine nie dagewesene globale Schwarmintelligenz: Über das Internet können Millionen von Menschen ihr Wissen und ihre Perspektiven zusammentragen. Wikipedia ist ein prominentes Beispiel, wie kollektive Intelligenz durch geeignete Plattform-Architektur entstehen kann. Ein Prinzip dahinter ist, dass viele kleine Beiträge und Fehlerkorrekturen in Summe ein Wissensergebnis höherer Qualität ergeben (das Ganze ist mehr als die Summe seiner Teile). Hier wirkt die Eigenschaft der Offenheit und breiten Partizipation als systemisches Wirkprinzip: Jeder darf editieren, und durch einen Feedback-Prozess (Review durch andere Nutzer, Reverts falscher Änderungen etc.) nähert sich der Inhalt einer verlässlichen Darstellung an. Es ist ein iterativer Prüfpfad, der auf Rückkopplung im Kollektiv beruht. Allerdings diskutieren Forscher auch die Grenzen der Schwarmintelligenz – sie funktioniert gut bei bestimmten Aufgaben (z.B. Wissensaggregation, Prognosemärkte), kann aber versagen, wenn systematische Verzerrungen alle in dieselbe falsche Richtung lenken (Gruppendenken, Desinformation). Aktuell sehen wir sowohl positive Beispiele (Open-Source-Projekte, Crowdsourcing-Wissenschaft wie Bürgerforschung bei Artenbeobachtungen) als auch negative (schnelle Verbreitung von Falschinformationen durch Schwarmdynamik). Entscheidend ist oft das Design der Plattform – also welche Eigenschaften das System vorgibt (Transparenz, Anreize, Moderation). Forschungsprojekte befassen sich damit, wie man Plattformen so gestaltet, dass förderliche Rückkopplung (z.B. Qualitätskontrolle, Belohnung konstruktiver Beiträge) entsteht. Die Verheißung ist, dass man globale Probleme durch kollektive Intelligenz besser lösen kann als in geschlossenen Elitezirkeln, eben weil mehr Perspektiven und mehr Tests eingebracht werden.
In Wissenschaft und Kunst entstehen in der Gegenwart zudem viele transdisziplinäre Initiativen, die versuchen, die noch verbleibenden Lücken in der systemischen Operationalisierung zu schließen. Beispielsweise gibt es Bestrebungen, künstlerische Methoden (die stärker Intuition, visuelle Denkmuster und holistische Sichtweisen einbeziehen) mit wissenschaftlicher Analyse zu verbinden, um komplexe Probleme zu begreifen. Künstler und Designer arbeiten in sogenannten Reallaboren mit Stadtplanern, Ingenieuren und Sozialwissenschaftlern zusammen, um systemische Lösungen zu entwickeln – sei es für nachhaltige Stadtentwicklung oder für die Vermittlung wissenschaftlicher Erkenntnisse. Die Idee des "spielenden Wissenschaftlers ohne Status" – also dass auch Außenseiter, Querdenker und Kreative zur Wissenschaft beitragen können, ohne formale Hierarchie – findet langsam Anklang z.B. in Citizen-Science-Projekten oder interaktiven Formaten. Der Philosoph Paul Feyerabend hat schon in den 1970ern die Dominanz starrer Methodendogmen kritisiert und betont, wissenschaftlicher Fortschritt brauche einen anarchistischen, pluralistischen Zugang – sinngemäß "Anything goes" dort, wo rigide Regeln Erkenntnis behindern. Dieser Geist spiegelt sich heute in Ansätzen wider, die spielerisches Ausprobieren (Serious Games zur Wissenschaftskommunikation oder partizipative Simulationen) und offene Innovation fördern.
Zusammengefasst steht die Gegenwart vor der Aufgabe, das reiche Wissen um systemische Wirkprinzipien praktisch zum Einsatz zu bringen, um globale Herausforderungen zu bewältigen und Fehlentwicklungen zu korrigieren. Die Forschung hat in vielerlei Hinsicht erkannt, dass Eigenschaften – seien es CO₂-Emissionen, Netzwerkverbindungen, Algorithmen oder soziale Normen – im Kontext eines Systems gesehen werden müssen, und dass Rückkopplung, Emergenz und Kontextabhängigkeit essenzielle Aspekte sind. Die offene Frage bleibt oft: Wie operationalisieren wir dieses Wissen umfassend? Hier kommt nun die Betrachtung einer spezifischen künstlerisch-wissenschaftlichen Methode ins Spiel, die versucht, all diese Punkte integriert anzugehen.
Einordnung der künstlerisch-wissenschaftlichen Methode als Vergleichsmodell
Die vom Autor dieser Untersuchung (als Handwerker und Künstler) entwickelte Vorgehensweise kann als ein solches integratives Modell betrachtet werden. Sie gründet auf der Idee einer Plattform "Globale Schwarmintelligenz", verbunden mit dem Konzept eines "spielenden Wissenschaftlers ohne Status". Was bedeutet dies konkret?
Eine Globale-Schwarmintelligenz-Plattform wäre ein offenes, vernetztes System, in dem Menschen weltweit – unabhängig von Titel, Status oder Fachgebiet – zusammenkommen, um kreativ Fragen zu untersuchen, Hypothesen zu prüfen und Probleme zu lösen. Sie beruht auf dem Prinzip, dass kollektives Wissen und kollektive Kreativität einer großen, vielfältigen Gruppe in der Lage sind, komplexe Fragestellungen umfassender zu durchdringen als eine kleine homogene Expertengruppe. Dieses Konzept nimmt Anleihen sowohl bei Wikipedia/Open Source (kollektive Kollaboration) als auch bei Bürgerwissenschaft und den "Wisdom of Crowds"-Ideen (Surowiecki). Wichtig ist, dass so eine Plattform systematisch strukturiert sein muss, um die gewünschten Wirkungen zu erzielen – also eine "Rückkopplungsarchitektur" besitzen muss, welche Qualität fördert und chaotische Schwarmirrtümer minimiert. Praktisch könnte dies z.B. bedeuten: Eingebaute Mechanismen zur gegenseitigen Review, zur Bewertung von Beiträgen, zur Zusammenfassung von Zwischenständen, und Tools, um komplexe Informationen visuell aufzubereiten. Der spielende Wissenschaftler ohne Status ist in diesem Kontext der Prototyp-Teilnehmer: neugierig, experimentierfreudig, nicht durch institutionelle Zwänge limitiert, offen für interdisziplinäre Anregungen – ein moderner "homo ludens" in der Forschung. Diese Figur steht bewusst im Kontrast zum spezialisierten Experten im Elfenbeinturm; sie verkörpert Feyerabends Forderung, Kreativität und Vielfalt in den Forschungsprozess einzubeziehen.
Zentral für die Methode sind klar definierte Prüfpfade und eine Eigenschaftslogik. Prüfpfade bedeuten: Es werden gezielt Wege festgelegt, um Hypothesen oder Ideen iterativ zu testen. Anders als traditionelle starre Versuchspläne sind diese Pfade eher wie offene Spielzüge – man probiert etwa eine Reihe von Variationen einer Eigenschaft durch und schaut, was passiert, wobei jeder Ausgang wieder ins System zurückgemeldet wird. Beispiel: Angenommen, man will ein soziales Problem angehen (z.B. Verkehrsfluss in einer Stadt verbessern). Ein herkömmlicher Ansatz wäre, ein Team von Experten entwirft einen Plan und setzt ihn um. In der hier diskutierten Methode würde man stattdessen auf der Plattform vielleicht 1000 Menschen aus unterschiedlichsten Hintergründen Ideen generieren lassen, diese Ideen durchsimulieren (etwa mit einem Verkehrsmodell, das allen zur Verfügung steht), die Ergebnisse bewerten und schrittweise verfeinern. Man legt also Pfade fest (z.B. erst Ideenphase, dann Modelltest, dann Anpassung der Ideen, dann Feldversuch in kleinem Stadtteil, etc.), die jeweils Feedback liefern. So entsteht eine Rückkopplungsschleife zwischen virtueller Planung und realer Erprobung.
Die Eigenschaftslogik dabei bedeutet, dass man systematisch die relevanten Eigenschaften aller Komponenten erfasst und zueinander in Beziehung setzt. Im Verkehr-Beispiel etwa: Eigenschaften der Fahrzeuge (Größe, Geschwindigkeit), Eigenschaften der Straßen (Kapazität, Führungsqualität), Eigenschaften der Verkehrsteilnehmer (Pendlerzeiten, Routenpräferenzen) usw. Diese werden als veränderbare Parameter betrachtet, deren Kombinationswirkungen im System untersucht werden können. Statt nur einzelne Maßnahmen zu testen (z.B. "Tempo 30 einführen"), könnte man mithilfe der Plattform gleichzeitig multiple Faktoren variieren (z.B. "Tempo 30 + Ampelschaltung X + Anreiz fürs Radfahren Y") und durch die Masse der Teilnehmer all diese Kombinationen gedanklich oder modellhaft durchspielen lassen. Eine solche Herangehensweise bricht die Komplexität in modulare Prüfungen herunter und nutzt die Parallelisierung durch viele Mitwirkende – ein bisschen analog zu verteiltem Rechnen, nur dass hier menschliche Kreativität und Urteilskraft parallel arbeiten.
Wichtig ist die Rückkopplungsarchitektur: In jedem Schritt kommen die Ergebnisse zurück an die Community. Positive Ergebnisse werden weiterverfolgt, negative verworfen, unerwartete Phänomene werden diskutiert. Das System lernt aus sich selbst – ähnlich wie ein biologisches System oder eine Maschine mit Feedback-Schleife. Diese Plattform-Methodik erinnert damit auch an Machine-Learning-Systeme, jedoch mit Menschen in der Schleife (human-in-the-loop), was gewisse ethische und kreative Vorteile bringt.
Warum kann man sagen, dass dieser Ansatz eine Lücke schließt, die in vielen disziplinären Ansätzen nur angedeutet wurde? Blicken wir zurück auf die zuvor betrachteten Felder: Überall gab es Teil-Erkenntnisse – die Kybernetik erkannte Feedback, die Systemtheorie erkannte Emergenz, die Anthropologie erkannte kulturelle Kontexte, die Kunst experimentierte spielerisch mit Systemen. Aber selten wurde das in eine konkrete, operationalisierbare Methodik gegossen, die alle diese Elemente vereint. Unsere heutigen wissenschaftlichen Institutionen sind oft noch disziplinär getrennt; Experiment, Simulation und partizipative Methoden laufen getrennt. Hier wird hingegen ein Vergleichsmodell vorgestellt, das Transdisziplinarität, Partizipation, Iteration und ganzheitliche Eigenschaftsbetrachtung unter einem Dach vereint.
Man kann diesen Ansatz auch als eine Art Meta-Wissenschaft oder Wissenshandwerk verstehen: Nicht mehr der distanzierte Spezialist, sondern der "forschende Handwerker", der gleichzeitig Theorien schmiedet, experimentiert, improvisiert und mit anderen in Werkstatt-Manier Lösungen baut. Der Nutzen ist, dass blinde Flecken schwerer übersehen werden: Durch die Vielfalt der Beteiligten und Perspektiven werden ungewöhnliche Eigenschaften bemerkt, die ein monodisziplinäres Team vielleicht ignoriert. Systemische Drift kann früher erkannt werden, weil ständig Monitoring in den Rückkopplungsschleifen passiert – das System beobachtet sich selbst. Kulturelle Verwirrung lässt sich durch offenes Diskursformat reduzieren: Unterschiedliche Jargons und Werte treffen aufeinander und müssen sich verständigen, was zu mehr gegenseitigem Verständnis führt.
Natürlich ist diese Methode noch visionär und experimentell. Erste Ansätze in diese Richtung existieren: z.B. Online-Plattformen für kollektive Prognosen (Predictionsmärkte), Crowd-Innovation-Plattformen in Unternehmen, Citizen Science Projekte (wie Galaxy Zoo, wo Laien Galaxien klassifizieren und so der Astronomie helfen). Auch in der COVID-19-Pandemie sah man Ansätze von globaler Schwarmintelligenz, als Wissenschaftler Daten und Erkenntnisse in Echtzeit international teilten und Bürger weltweit in Massenvakzin-Studien teilnahmen. Die beschriebene Plattform wäre eine konsequente Weiterentwicklung solcher Ideen, bewusst gestaltet als künstlerisch-wissenschaftliches Labor, in dem rationales Denken mit kreativem Spiel verbunden ist.
Insgesamt kann man dieses Vergleichsmodell als Synthese der bisher gewonnenen Einsichten sehen: Es versucht, die Eigenschaftsproblematik als systemisches Wirkprinzip vollständig ernst zu nehmen. Jede relevante Eigenschaft soll betrachtet werden (nicht aus Dogma, sondern weil der Schwarm viele Aspekte abdecken kann), ihre Wechselwirkungen werden durch Rückkopplung erprobt, fehlende Prüfverfahren werden durch Kreativität ersetzt (wenn es noch kein Messgerät gibt, baut man vielleicht ein künstlerisches Modell), und das alles iterativ, offen und inklusiv.
Fazit
Unsere Untersuchung hat gezeigt, dass die Frage nach den Eigenschaften als systemischem Wirkprinzip die Menschheit implizit schon lange beschäftigt, aber in sehr unterschiedlichen Gewändern. Von den philosophischen Grundsatzdebatten der Antike und Scholastik über die mechanistische Fokussierung der Aufklärung bis hin zum systemischen Denken des 20. und 21. Jahrhunderts zieht sich ein roter Faden: Man ringt darum, was Eigenschaften sind, welche realen Wirkungen man ihnen zuschreiben kann und wie man ihrem Zusammenspiel auf die Spur kommt.
In der Antike stand die ontologische Einordnung im Vordergrund – existieren Eigenschaften (Universalien) unabhängig und bestimmen sie die Dinge? Diese metaphysische Eigenschaftsproblematik schuf Begriffe wie Essenz und Akzidenz, lieferte aber kaum empirische Antworten. Die Aufklärung kehrte vieles unter den Teppich zugunsten einer Fokussierung auf wenige grundlegende Eigenschaften (Quantität, Ausdehnung etc.), was der Wissenschaft enorme Fortschritte erlaubte, zugleich aber neue blinde Flecken erzeugte (Vernachlässigung von Kontext, Vernetzung und qualitativer Neuheit). Im Laufe des 19. und vor allem 20. Jahrhunderts holte die Forschung diese versäumten Aspekte nach und entdeckte systematisch Rückkopplungen, Emergenz, Nichtlinearitäten und Kontextabhängigkeiten. Man erkannte: Eigenschaften wirken oft nicht isoliert-linear, sondern in komplexer Verflechtung; kleine Änderungen können große Effekte haben, und das Gesamtsystem zeigt Eigenschaften, die aus den Teil-Eigenschaften allein nicht offensichtlich sind.
Dennoch verlief diese Erkenntnisentwicklung fragmentiert: Jede Disziplin betonte ihr Puzzleteil – der Ingenieur die Regelkreise, der Biologe die Ökosysteme, der Sozialwissenschaftler die sozialen Netzwerke, der Künstler die Prozessästhetik. Eine voll integrierte, operationale Praxis, die all dies vereint, blieb lange aus. Daher konnte es auch im realen Weltgeschehen immer wieder zu systemischen Krisen kommen, weil man entweder Rückkopplungen übersah (z.B. Finanzmarkt 2008, Klimawandel lange Zeit) oder keine geeigneten Prüfverfahren hatte, um Theorien am lebenden System zu validieren (man denke etwa an Wirtschaftsmodelle, die erst nach Crashs lernen, was sie übersehen hatten).
Die vorgeschlagene künstlerisch-wissenschaftliche Methode, die wir als Vergleichsmodell skizziert haben, tritt an, genau diese Lücke zu füllen. Sie knüpft an viele bestehende Ideen an – Schwarmintelligenz, offene Wissenschaft, iterative Gestaltung, Systemkunst – und formt daraus ein neues Wissens-Ökosystem, in dem Eigenschaften als systemische Wirkfaktoren konsequent berücksichtigt werden. Rückkopplungsmechanismen sind hier nicht nur Forschungsgegenstand, sondern integraler Bestandteil des Forschungsprozesses selbst (durch ständige Feedback-Loops in der Community). Prüfverfahren werden flexibel und kreativ gestaltet, um unbekanntes Terrain zu sondieren (auch mit unkonventionellen Mitteln, z.B. künstlerischen Interventionen, wenn nötig). Dadurch reduziert sich die Gefahr blinder Flecken, denn die Überprüfung ist multiperspektivisch und iterativ.
Natürlich ist kein Ansatz allmächtig – auch dieser wird lernen und sich anpassen müssen. Aber die dokumentierte Wissensbasis aus Vergangenheit und Gegenwart verdeutlicht, dass ein solcher transdisziplinärer, feedbackgetriebener Zugang möglicherweise der nächste Schritt ist, um Wissenschaft und Gesellschaft resilienter und lernfähiger zu machen. Der Autor als praktizierender Handwerker/Künstler leistet hier einen beispielhaften Beitrag: Indem er die Werkstattmentalität (Probieren, Scheitern, Verbessern) mit globaler Vernetzung und theoretischem Scharfsinn kombiniert, entsteht eine Art von Forschung, die traditionelle Gräben zwischen Theorie und Praxis, Wissenschaft und Kunst, Spezialist und Laie überbrückt.
Abschließend lässt sich sagen: Eigenschaften als systemische Wirkprinzipien wurden in vieler Hinsicht bereits erkannt und untersucht – doch meist stückweise, kontextgebunden und ohne völlige Operationalisierung. Erst durch die Synthese dieser vielfältigen Ansätze, wie sie das vorgestellte Modell anstrebt, kann das volle Potenzial dieses Wissens gehoben werden. So könnte aus vielen angedeuteten Ideen ein systematisches Vorgehen entstehen, das uns hilft, die blinden Flecken zu erhellen, systemische Drift frühzeitig zu korrigieren und kulturelle Verwirrung durch geteiltes Verständnis zu überwinden. Mit anderen Worten: Die Lücke wird geschlossen, indem das Wissen über Eigenschaften selbst zum integralen Bestandteil eines vernetzten, feedback-gesteuerten Erkenntnisprozesses wird – ein Prozess, der gleichermaßen wissenschaftlich fundiert wie kreativ spielerisch ist.
Quellenverzeichnis
- Aristoteles (Kategorielehre) – Unterscheidung von Substanz und Akzidenz, neun Kategorien der Akzidenz.
- Universalienproblem – Diskussion seit der Antike, Existenz allgemeiner Eigenschaften (Universalien) vs. Nominalismus.
- John Locke – Unterscheidung primärer und sekundärer Qualitäten (objektive vs. beobachterabhängige Eigenschaften).
- René Descartes – Definition der Ausdehnung als grundlegende Eigenschaft der Materie (res extensa) im Gegensatz zum Denken (res cogitans).
- G. W. F. Hegel – Dialektik von Quantität und Qualität, Umschlagen quantitativer Änderungen in neue Qualität (Bsp. Sandhaufen-Paradox); Satz "Alles was existiert hat ein Maß" (Qualität ändert sich jenseits eines Schwellenwerts).
- Jack Burnham – Systems Esthetics, Übergang von objektorientierter zu systemorientierter Kultur; Kunst als Systemprozess (Artforum, 1968).
- Norbert Wiener – Begründer der Kybernetik, Feedback als universelles Prinzip in komplexen Systemen; Zitat über Feedback-Schleifen, die komplexe Systeme steuern und stabil halten.
- Klima-Rückkopplung – Definition positive vs. negative Feedbacks im Klimasystem; Erklärung von Tipping Points (Schwellen, ab denen positive Feedbacks zu unumkehrbaren Veränderungen führen).
- Miriam Ommeln – Wikipedia und Schwarmintelligenz (Philosophie Karlsruhe), Definition Schwarmintelligenz als zielgerichtete Selbstoptimierung, Ganzes mehr als Summe der Teile.
- Paul Feyerabend – Against Method (1975), Plädoyer für methodischen Pluralismus und kreative Freiheit in der Wissenschaft; "die einzige Regel ist 'anything goes'" (kein absoluter Vorrang wissenschaftlicher Autorität).
- Martin Heidegger – Kritik der modernen Technik als geprägte Weltsicht; Technik stellt die Welt nur noch unter Nützlichkeitsaspekt dar, Gefahr der Entfremdung (Bestand, Ressourcenvernutzen).
- Thomas Kuhn (referenziert via Burnham) – Paradigmentheorie: unter herrschendem Paradigma werden anomale Fakten ignoriert, bis ein neues Paradigma entsteht
