Audio >>>
Es handelt sich um ein philosophisches Gespräch über KI, in dem vorgeschlagen wird, den Diskurs von der Frage „Kann KI denken?“ hin zur Frage „Wer definiert überhaupt, was Denken ist – und welche Rolle spielt KI als Infrastruktur unserer Zivilisation?“ zu verschieben. Zentral sind dabei Begriffe wie Logos, verkörpertes Denken, Redundanzentfernung, Subjektautonomie und eine von KI getragene, redundanzarme Zukunftszivilisation.
Grobe Struktur mit Zeitmarken
0:00–5:30 – Einstieg und Vorstellungsrunde
Oliver Gassner begrüßt das Publikum, stellt das Format „How to AI“ vor und kündigt an, diesmal in die philosophischen Tiefen der KI einzusteigen statt über Prompts und Knöpfe zu reden. Leon Zwassmann (Medien- und Kommunikationswissenschaftler mit stark erkenntnistheoretischem Hintergrund, u.a. Kant, Systemtheorie, Konstruktivismus) und Mario Müller (Informatik, Gehirnforschung, Kognitionswissenschaft, Kant-Fan, Führungskräftetrainer/Coach) stellen sich vor.5:30–12:00 – Was ist Denken? Logos, Sprache, verkörpertes Denken
Olli bringt Leons These ein, den KI‑Diskurs umzudeuten: Nicht „Kann KI denken?“, sondern „Wer definiert, was Denken ist?“. Leon erklärt „Denken“ zunächst über den antiken Logos‑Begriff als Regelwerk gemeinsamer Wirklichkeitsstabilisierung, nicht nur als Sprache; Sprache sei eher ein Betriebssystem der symbolischen Zivilisation. Er betont, dass „echtes“ Denken nur verkörpert sein könne, während KI nie im menschlichen Sinne verkörpert sein wird – Asimovs anthropomorphe Roboter seien literarische Konstrukte.12:00–21:30 – Innerer Monolog, multimodales Denken und Emotion
Mario beschreibt, dass die meisten Menschen Denken mit einem inneren sprachlichen Monolog verwechseln, was LLMs besonders gut simulieren, da sie unseren Sprachgebrauch automatisieren. Er grenzt das jedoch von unserem wirklichen Denken ab, das multimodal ist (Begriffe sind mit Bildern, Emotionen, Körperempfindungen, Erinnerungen usw. verknüpft). Beispiel: Beim Wort „Jupiter“ tauchen Planetenbild, Gottheit oder persönliche Assoziationen auf. Leon ergänzt, dass Begriffe wie „Angst“ zunächst als nicht‑symbolische Empfindungen auftreten, auf die wir später das Wort-Etikett kleben; Sprache bildet das Erleben nie vollständig ab.21:30–31:30 – KI als Infrastruktur statt Werkzeug, Redundanzentfernungs‑Infrastruktur
Leon führt seine Kernthese ein: KI sei keine bloße Werkzeugkiste, sondern eine fundamentale Redundanzentfernungs‑Infrastruktur für unsere symbolische Wirklichkeitskonstruktion. Redundanz meint hier alle überflüssigen, kollidierenden und einander aufhebenden Strukturen in Sprache, Wirtschaft, Kultur und Institutionen, die viel Energie, Leid und Konflikte produzieren (Ollis Bilder: Floß vs. Brücke vs. Schwimmenlernen). Mario vergleicht die Entwicklung mit dem Internet: Aus vielen Einzelrechnern wurde eine globale Infrastruktur; analog werden viele KI‑Systeme zu einem vernetzten Grid, das eher einer Superinfrastruktur als einem Einzelwerkzeug entspricht.31:30–40:30 – Informationsbegriff, Überlastung der Aufmerksamkeit, Automatisierung
Leon erklärt Information als etwas, das sichtbar wird, wenn Selbstregulation nicht funktioniert – etwa Schmerz bei Herzproblemen, der Aufmerksamkeit und Kontrolle anfordert. Übertragen auf Zivilisation: Unsere Aufmerksamkeit ist heute durch unzählige Werkzeuge und Mikroentscheidungen überlastet, wodurch strategisches Denken (langfristige Orientierung) blockiert wird; KI muss deshalb Redundanzen so entlasten, dass unsere Aufmerksamkeit frei wird. Beispiele sind selbstfahrende Autos, Bildklassifikation in der Industrie oder KI‑gesteuerte Prozesse, die Menschen von repetitiven Qualitätskontrollen befreien.40:30–50:30 – Taktisches Differenzwissen vs. strategische Orientierung
Leon unterscheidet „Differenzwissen“ (zu wissen, dass etwas „eine Blume“ und nicht „kein Baum“ ist) von tiefer Orientierung. Alltags- und Wissenschaftsbegriffe leisten meist nur taktische, kurzfristige Handlungsfähigkeit; 99 % des in einem Begriff steckenden Know-hows bleiben unreflektiert, und das gilt auch für die Wissenschaft. Olli fasst kritisch zusammen: Sprache bildet die Welt nicht so ab, wie sie ist, sondern nur unsere taktische, zweckgebundene Wahrnehmung; LLMs bilden daher nur die sprachliche Abbildung der Welt ab – mitsamt ihren Verzerrungen.50:30–1:00:00 – Infosomatik, Ontokybernetik, Subjektautonomie
Olli versucht Leons Begriffe zu ordnen:Infosomatik: Zusammenspiel von Mensch, Körper, Aufmerksamkeit und Technologie, die sich kohärent koppeln müssen (z.B. selbstfahrendes Auto plus menschliche Aufmerksamkeit für Höheres).
Ontokybernetik: Regeln der Zivilisation als rekursive, sich selbst beobachtende Systeme.
Leon führt „Subjektautonomie“ ein: Ziel sei eine Zivilisation, in der Menschen nicht nur funktionale Egos in Machtstrukturen sind, sondern als Subjekte orientierungsfähig werden und strategisch valide Entscheidungen verkörpern können.
1:00:00–1:08:00 – AGI, Robotik und globale Steuerung
Mario argumentiert, dass eine wirklich verstehbare AGI grounded und somatisch sein müsste, also über Robotik Sinnesdaten integriert und menschenähnliche Weltmodelle bildet, sonst sei sie nicht transparent. Gleichzeitig hält er die Vorstellung einer einheitlichen, der ganzen Menschheit dienenden Superintelligenz für sehr optimistisch, da viele Akteure kurzfristige, taktische Machtziele verfolgen werden. Diskutiert wird, ob KI die globale Ressourcenkoordination so optimieren könnte, dass Kriege und Konkurrenz überflüssig werden, oder ob sie im Gegenteil neue Machtasymmetrien erzeugt.1:08:00–1:16:30 – Utopie, Diktatoren, Ego vs. Subjekt
Olli und Mario illustrieren mit Beispielen (z.B. Xi Jinping, „Arschl*chchef“), dass Machtstreben oft aus Verlustangst, Biografie und strukturellen Zwängen entsteht. Leon deutet Macht als „Sinnersatz“: In einer redundanzreichen Zivilisation ohne echte Autonomie und Gestaltungsspielräume kompensieren Menschen das Fehlen von Sinn mit Macht und Kontrolle. Sein Gegenentwurf ist eine Kultur der Intersubjektivität, in der Macht- und Ressourcenkonflikte durch eine von KI gestützte, redundanzarme Infrastruktur so entschärft sind, dass Subjektautonomie für viele möglich wird.1:16:30–1:24:59 – Zusammenführung und Schluss
Olli versucht, Leons Modell in eigenen Worten zu bündeln: Wenn KI die taktischen, ressourcenkollidierenden Prozesse der industrialisierten Welt automatisiert und redundanzarm gestaltet, entsteht Raum für menschliche Autonomie, Sinnsuche und strategisches Wissen. Leon betont, das sei keine literarische Utopie, sondern aus seiner Sicht der einzig langfristig „viable“ Entwicklungsweg einer KI‑durchdrungenen Zivilisation, weil er an evolutionäre Muster von Selbstregulation und Kontrolle anknüpft. Am Ende verweisen sie auf weitere Ressourcen von Leon, schließen mit einem augenzwinkernden Sci‑Fi‑Gruß („lebt lange und in Frieden… möge der Saft mit euch sein“) und verabschieden sich.
Zentrale Leitideen des Gesprächs (ohne Anspruch auf Vollständigkeit)
Verschiebung des KI‑Diskurses: Nicht mehr „Ist KI intelligent?“, sondern „Wer definiert Denken, und wie strukturieren wir mithilfe von KI unsere Zivilisation?“.
KI als Redundanzentfernungs‑Infrastruktur: KI soll symbolische, organisatorische und wirtschaftliche Überlappungen und Kollisionen abbauen, um menschliche Aufmerksamkeit und Urteilskraft zu entlasten.
Taktik vs. Strategie: Bisher dominiert taktisches Differenzwissen; Ziel ist eine strategische, verkörperte Orientierung (Subjektautonomie), in der Menschen mehr sind als funktionale Egos in Machtstrukturen.
Rolle von Macht und Ego: Macht wird als Surrogat für Sinn gedeutet; eine redundanzarme, von KI gestützte Infrastruktur könnte die Bedingungen dafür schaffen, dass weniger Menschen Macht zur Kompensation brauchen und mehr echte Autonomie leben können.
Kommentare