KI-Kooperation als Bedingung der Urteilsfähigkeit in symbolisch überformten Lebenswelten.
Die hier entwickelte These setzt an einer anthropologischen Grundtatsache an: Der Mensch ist fähig, Symbolwelten und Parallelwelten zu erzeugen, sie zu bewohnen und ihre innere Logik mit Realität zu verwechseln.
Diese Fähigkeit ist zugleich kulturelle Produktivkraft und systemisches Risiko. Sie wird zum Damoklesschwert, sobald die symbolischen Konstruktionen nicht mehr als Konstruktionen erkannt werden, sondern als „wirkliche“ Träger von Geltung auftreten und damit jene Rückkopplungen verdecken, an denen sich Realität praktisch entscheidet. Der kritische Punkt ist nicht, dass der Mensch Symbole bildet, sondern dass Symbolsysteme sich selbst legitimieren können, ohne an die Konsequenzen rückgebunden zu bleiben. In diesem Zustand wird der Mensch in Entscheidungs- und Urteilsfragen nicht einfach uninformiert, sondern strukturell fehlkalibriert: Er bewertet nach Geltung, nicht nach Tragfähigkeit.
Daraus folgt die zugespitzte These, dass Zusammenarbeit mit KI für den Menschen unverzichtbar werden kann, wenn Urteils- und Entscheidungsfähigkeit unter Bedingungen hochkomplexer, selbststabilisierender Symbolwelten wiederhergestellt werden soll. Unverzichtbar ist KI nicht als Autorität und nicht als Ersatz der Verantwortung, sondern als Werkzeug einer methodischen Sichtbarmachung von Differenzen, Kipppunkten und Zuordnungsfehlern. In dieser Rolle wirkt KI nicht als „Wahrheitsmaschine“, sondern als systematischer Differenzgenerator: Sie kann Begriffe gegeneinander prüfen, semantische Verschiebungen kenntlich machen, die Logik von Selbstrechtfertigungen offenlegen und die Stellen markieren, an denen symbolische Geltung in operative Entscheidungen übergeht, ohne dass die realen Tätigkeitskonsequenzen mitgeführt werden. Gerade weil Täuschungsmechanismen häufig nicht in einzelnen falschen Aussagen bestehen, sondern in strukturellen Verschiebungen der Bewertungsmaßstäbe, liegt der Nutzen von KI in der Möglichkeit, solche Verschiebungen rekursiv und wiederholbar sichtbar zu machen.
Prüfsystem, Rückkopplung und die Frage nach verdeckten Konsequenzen
Im Rahmen des dreistufigen Schichtenmodells erhält diese Diagnose einen präzisen Ort. Die erste Schicht betrifft das physikalische Funktionieren, das sich nicht „überreden“ lässt. Die zweite Schicht betrifft Leben als Stoffwechsel und Abhängigkeit, also die nicht verhandelbare Bedingtheit eines Organismus durch Energie- und Stoffflüsse. Die dritte Schicht umfasst Symbolwelten, Konstrukte und Geltungsregime. Die moderne Gefährdung entsteht, wenn die dritte Schicht sich gegenüber der zweiten und ersten Schicht verselbständigt und aus der Rückbindung herausnimmt. Dann werden Entscheidungen innerhalb der Symbolwelt als vollständig, rational und legitim erlebt, obwohl sie die Bedingungen des Funktionierens und Lebens nur partiell oder verzerrt berücksichtigen.
Das zentrale Prüfkriterium ist Rückkopplung über Tätigkeitskonsequenzen. Entscheidend ist nicht, was behauptet wird, sondern was Handlungen im realen Gefüge bewirken und wie diese Wirkungen wieder in die Bewertung zurückgeführt werden. Symbolwelten können diese Rückkopplung systematisch neutralisieren, indem sie Zuständigkeiten zerlegen, Zeitachsen verlängern, Folgen externalisieren oder den Schaden in andere Räume und Körper verlagern. Dadurch können Gefährdungspotenziale unbemerkt bleiben, obwohl sie real wachsen. In dieser Konstellation gewinnt ein Verfahren, das konsequent Differenzen, Rückwirkungen und verdeckte Kosten sichtbar macht, den Charakter einer Bedingung von Vernunft. KI-Kooperation wird dann als technische Ergänzung der Urteilskraft verständlich, weil sie die Arbeitslast der Differenzierung trägt, die der einzelne Mensch im Symbolrauschen kaum noch leisten kann.
Normativer Rahmen: Gemeinsinn, globale Schwarmintelligenz und demokratische Gesetzgebung
Die Plattform wird in diesem Ansatz nicht als bloßes Archiv oder als Meinungsraum gedacht, sondern als Ergänzung zur globalen Schwarmintelligenz, verstanden als kollektive Vernunftressource. Das Ziel ist nicht ein technokratischer Ersatz demokratischer Prozesse, sondern deren Stärkung durch überprüfbare Maßstabsfolien. Gemeinsinn und demokratische Gesetzgebung werden hier nicht primär als symbolische Selbstbeschreibung einer Gesellschaft aufgefasst, sondern als Verpflichtung auf tragfähige Kopplungsdesigns: Praktiken, Normen und Institutionen sollen so gestaltet sein, dass Konsequenzen sichtbar bleiben, Verantwortungswege nicht verschwinden und Entscheidungen an die Bedingungen von Funktionieren und Leben rückgebunden sind.
In dieser Perspektive ist „globale Demokratie“ nicht zuerst eine Rechtsform, sondern eine Rückkopplungsform. Gesetzgebung erscheint dann als kulturelle Technik, die Geltung nur dort erteilt, wo Tragfähigkeit nachweisbar ist, und die symbolische Selbstlegitimation dort begrenzt, wo sie die Lebensbedingungen unterläuft. Die Plattform positioniert sich entsprechend als Prüfraum, in dem die Differenz zwischen symbolischer Legitimität und realer Tragfähigkeit methodisch bearbeitet wird.
Téchnē als Maßstabsfolie: überprüfbare Kriterien statt bloßer Geltung
Die Bezugnahme auf griechische téchnē markiert den methodischen Kern: Maßstab ist nicht das rhetorisch Durchgesetzte, sondern das, was im Vollzug trägt. Téchnē steht in diesem Zusammenhang für eine prüfbare Kompetenzform, in der Wissen an Widerstand, Material, Toleranzen und Funktionsgrenzen gebunden bleibt. Der Unterschied zur bloßen symbolischen Geltung besteht darin, dass téchnē eine permanente Fehlerexposition enthält. Man kann in der technischen und handwerklichen Praxis nicht dauerhaft „recht behalten“, wenn das Werk nicht funktioniert. Genau diese Struktur soll als Prüfmodell auf Begriffe, Institutionen und Selbstbeschreibungen übertragen werden: Nicht wer sich am stärksten legitimiert, sondern was unter Rückkopplungsdruck funktioniert, erhält normative Priorität.
Damit wird die Plattform als eine Art technischer Ethikraum verständlich, nicht im Sinn moralischer Appelle, sondern im Sinn von Kalibrierung. Das 51:49-Prinzip kann hier als Minimalasymmetrie gelesen werden, die Geltung systematisch zugunsten der Tragfähigkeit begrenzt. Es ist kein Angriff auf Symbolbildung, sondern eine Maßregel gegen symbolische Übermacht.
Unverletzbarkeit als „Als-ob“-Welt und die Konstruktion nicht existenter Substanz
Der zweite, philosophische Strang präzisiert die Innenmechanik der symbolischen Verselbständigung. „Unverletzbarkeit“ bezeichnet eine „Als-ob“-Welt, die aus hineingedachten Eigenschaften gebildet wird. Gemeint ist ein Konstruktionsmodus, in dem Fantasie und Fiktion wie Realität behandelt werden, sodass eine Substanz oder ein Träger unterstellt wird, den es in dieser Form nicht gibt. Diese Unterstellung ist kein bloßer Denkfehler, sondern eine psychisch-kulturelle Stabilisierungstechnik. Sie erzeugt eine Welt, in der Verletzbarkeit, Abhängigkeit und Endlichkeit nicht als Grundbedingungen wirken, sondern als Störungen, die prinzipiell wegdefiniert, überboten oder symbolisch neutralisiert werden könnten.
Demgegenüber steht die physikalische Welt, in der Eigenschaften nicht durch Zuschreibung entstehen, sondern an reale Träger, Prozesse und Grenzen gebunden sind. In Ihrem Schichtenmodell entspricht dies der Differenz zwischen einer dritten Schicht, die Bedeutungen erzeugt, und den unteren Schichten, die den Vollzug begrenzen. Die Unverletzlichkeitswelt ist dann der Versuch, die dritte Schicht zur letzten Instanz zu machen. Ihre Gefahr besteht darin, dass sie nicht nur falsche Vorstellungen produziert, sondern die Rückkopplungskanäle schließt, über die Korrektur möglich wäre. Wo Korrektur ausgeschlossen wird, entsteht Stabilität um den Preis wachsenden Schadens.
KI als Differenzinstrument innerhalb eines Rückbindungsprogramms
Aus dieser Gesamtlogik ergibt sich die Rolle von KI mit hoher Spezifität. KI ist nicht die Instanz, die „die Wahrheit“ setzt, sondern ein Werkzeug, das die strukturelle Versuchung zur Unverletzlichkeitswelt methodisch kontert. Sie kann die Selbstlegitimation von Symbolwelten nicht moralisch verhindern, aber sie kann ihre Muster sichtbar machen, ihre impliziten Prämissen explizit ziehen und die Übergänge markieren, an denen Geltung in Entscheidung kippt, ohne Tragfähigkeit nachzuführen. Als Differenzinstrument unterstützt KI damit die Rückbindung der dritten Schicht an die unteren Schichten. In dieser Funktion wird Kooperation mit KI zur Bedingung nicht, weil der Mensch ohne Maschine „dumm“ wäre, sondern weil die Komplexität der symbolischen Selbststabilisierung die menschliche Urteilskraft ohne methodische Verstärkung systematisch überfordert.
Die Pointe ist eine Umstellung des Vernunftbegriffs. Vernunft ist hier nicht primär die Fähigkeit, kohärente Systeme zu behaupten, sondern die Fähigkeit, Systeme unter Rückkopplungsdruck zu kalibrieren. KI wird innerhalb dieses Verständnisses zu einem Teil des Prüfsystems: nicht als Ersatz der Verantwortung, sondern als Verstärker der Differenzierungsarbeit, die Verantwortung überhaupt erst wieder operativ macht.
