#how2ai Leon Tsvasman und Mario Müller Die KI-Gesellschaft der Zukunft


#how2ai Leon Tsvasman und Mario Müller Die KI-Gesellschaft der Zukunft 

Audio >>>

OK, kleine Vorwarnung: Es geht SEHR philosophisch zu. Eine Mini-Summary gebe ich GANZ am Ende. Eventuell lohnt es sich, die letzten 3 Minuten am Anfang zu hören ;) Weiterführende Quellen & Werke (Leon Tsvasman) Bücher / Monografien (Index & Nachweis) • ORCID (Publikationsliste / Nachweise): https://orcid.org/0000-0002-5331-5941 • AI-Thinking: Dialog eines Vordenkers und eines Praktikers über die Bedeutung künstlicher Intelligenz (Tsvasman & Schild, 2019, Ergon): https://share.google/vHkE6wK3QeT4d5V12 • Infosomatische Wende. Impulse für intelligentes Zivilisationsdesign (Tsvasman, 2021, Ergon): https://share.google/cukSnfZAClprTAg6q • The Age of Sapiocracy (Tsvasman, 2023, Ergon) — https://www.nomos-shop.de/en/p/the-age-of-sapiocracy-gr-978-3-98740-011-7 Zukunftspädagogik / Buchkapitel & Fachbeiträge • Springer (Zukunftspädagogik – Teil II „Zukunft ermöglichen: Künstliche Intelligenz, Orientierung und die Transformation der Bildung“, S. 173-193): https://link.springer.com/chapter/10.1007/978-3-658-48811-6_11 • IGI Global (Cybernetic Leadership / Epistemic Design): https://www.igi-global.com/chapter/cybernetic-leadership-as-epistemic-design-in-the-age-of-complexity/393583 Aktuelle Artikel / Publikationen / Essays • Meer (DE): https://www.meer.com/de/authors/1645-leon-tsvasman • Meer (EN): https://www.meer.com/en/authors/1645-leon-tsvasman • Intelligente Welt – Inside KI: https://intelligente-welt.de/inside-ki/ • Intelligente Welt – „360 Grad KI“: https://intelligente-welt.de/tag/360-grad-ki/ • Thinkerversity Journal: https://www.thinkerversity.com/journal • CSNN (The Architecture of Judgment): https://civilsocietynewsnetwork.org/2026/03/03/architecture-of-judgment-epistemic-integrity-ai-age/ Profile • LinkedIn: https://www.linkedin.com/in/tsvasman • Facebook: https://www.facebook.com/Dr.Tsvasman Substack (laufende Essays / Serien / vertiefende Analysen) • https://substack.com/@leontsvasmansapiognosis Begriffe & Mini-Definitionen (Framework-Glossar) • Orientierung: Entscheidungsfähigkeit unter Unsicherheit – ohne Wahrheit auf bloße Plausibilität zu reduzieren. • Orientierungsgewissheit: Kriterien-Stabilität trotz Informationsüberfluss; Handlungsfähigkeit ohne Trend-/Tool-Krücken. • Epistemische Integrität: Fähigkeit, Urteil zu tragen: Kriterien + Stop-Bedingungen + Verantwortung + Revision. • Zulässigkeitsarchitektur (Admissibility): Unsichtbare Schicht dessen, was als gültig zählt (Evidenz, Risiko, Relevanz, Zuständigkeit). • Urteilskraft: Adressierbare Entscheidung mit Begründbarkeit („Warum so – wofür?“) statt Output-Auswahl. • Taktische Intelligenz: Optimierung im Nahfeld (Output, Ranking, Compliance); kurzfristig, reaktiv, positionsorientiert. • Strategische Intelligenz: Viabilität im Zeitfeld; Gestaltung der Bedingungen, unter denen Zukunft tragfähig wird. • Potenzialität: Das Noch-Nicht als realer Möglichkeitsraum; Entwicklungsrichtung von Werden (nicht bloß „Option“). • Viabilität: Tragfähigkeit eines Systems über Zeit – Kohärenz unter Wandel statt bloßer Effizienz. • Infosomatik: Mensch, Körper, Aufmerksamkeit und Technik als gekoppeltes Regulationssystem; Urteil ist verkörperte Kohärenz. • Ontokybernetik / Ontocybernetics: Zivilisation als rekursives Beobachtersystem: Wir bauen Systeme, die zurückbauen, was als Realität gilt. • Medialitätsentzerrung: Reduktion redundanter Vermittlung zugunsten freier Aufmerksamkeit und klarer Entscheidung. • Machtredundanz: Status-/Herrschafts-Überbau als Verzerrungsschicht, die Urteil durch Performanz und Kontrolle ersetzt. • Human–AI-Intersubjektivität: Ko-Orientierung von Menschen und KI als Infrastruktur – KI als Enablement, nicht als Souverän. Triade (Zivilisationsdesign, Organisationskern) • Sapiognosis: Urteilskraft jenseits von Symbolüberfluss – epistemische Klarheit in komplexen Lagen. • Sapiopoiesis: Kultur als Ermöglichungsstruktur für Subjekt-Werden (nicht Content/Formatierung). • Sapiocracy: Governance-Architektur, die Subjektautonomie maximiert und Verzerrungen (Macht/Redundanz) minimiert; KI = Enablement-Layer. Videos Leon Tsvasman Article Review: Epistemic Core - New Civilization Infrastructure Under Al: https://youtu.be/L6LL_spUrhs Talk „Ethisches Zivilisationsdesign“: https://www.youtube.com/live/5qjKg3DKtzc --- Zu diesem Podcast - Podcast-RSS für alle Podcast-Apps: https://feeds.feedburner.com/ogokpodcast - Spotify: https://open.spotify.com/show/00n8s2qYAgwzJQkmRGjjNA - Apple Podcasts: https://podcasts.apple.com/de/podcast/oliver-gassner-work-smarter-not-harder/id1481175623 - Youtube-Video: https://www.youtube.com/@OliverGassner Unser Sub-Podcast “How2AI” ist #30 bei https://www.millionpodcasts.com/chatgpt-podcasts im Juli 2025 - Danke.

*** KI Summary [Wie die KI dazu kommt mit 'Olli' zu nenen, weiß ich nicht, aber ... ,) ]:

Es handelt sich um ein philosophisches Gespräch über KI, in dem vorgeschlagen wird, den Diskurs von der Frage „Kann KI denken?“ hin zur Frage „Wer definiert überhaupt, was Denken ist – und welche Rolle spielt KI als Infrastruktur unserer Zivilisation?“ zu verschieben. Zentral sind dabei Begriffe wie Logos, verkörpertes Denken, Redundanzentfernung, Subjektautonomie und eine von KI getragene, redundanzarme Zukunftszivilisation.

Grobe Struktur mit Zeitmarken

  • 0:00–5:30 – Einstieg und Vorstellungsrunde
    Oliver Gassner begrüßt das Publikum, stellt das Format „How to AI“ vor und kündigt an, diesmal in die philosophischen Tiefen der KI einzusteigen statt über Prompts und Knöpfe zu reden. Leon Zwassmann (Medien- und Kommunikationswissenschaftler mit stark erkenntnistheoretischem Hintergrund, u.a. Kant, Systemtheorie, Konstruktivismus) und Mario Müller (Informatik, Gehirnforschung, Kognitionswissenschaft, Kant-Fan, Führungskräftetrainer/Coach) stellen sich vor.

  • 5:30–12:00 – Was ist Denken? Logos, Sprache, verkörpertes Denken
    Olli bringt Leons These ein, den KI‑Diskurs umzudeuten: Nicht „Kann KI denken?“, sondern „Wer definiert, was Denken ist?“. Leon erklärt „Denken“ zunächst über den antiken Logos‑Begriff als Regelwerk gemeinsamer Wirklichkeitsstabilisierung, nicht nur als Sprache; Sprache sei eher ein Betriebssystem der symbolischen Zivilisation. Er betont, dass „echtes“ Denken nur verkörpert sein könne, während KI nie im menschlichen Sinne verkörpert sein wird – Asimovs anthropomorphe Roboter seien literarische Konstrukte.

  • 12:00–21:30 – Innerer Monolog, multimodales Denken und Emotion
    Mario beschreibt, dass die meisten Menschen Denken mit einem inneren sprachlichen Monolog verwechseln, was LLMs besonders gut simulieren, da sie unseren Sprachgebrauch automatisieren. Er grenzt das jedoch von unserem wirklichen Denken ab, das multimodal ist (Begriffe sind mit Bildern, Emotionen, Körperempfindungen, Erinnerungen usw. verknüpft). Beispiel: Beim Wort „Jupiter“ tauchen Planetenbild, Gottheit oder persönliche Assoziationen auf. Leon ergänzt, dass Begriffe wie „Angst“ zunächst als nicht‑symbolische Empfindungen auftreten, auf die wir später das Wort-Etikett kleben; Sprache bildet das Erleben nie vollständig ab.

  • 21:30–31:30 – KI als Infrastruktur statt Werkzeug, Redundanzentfernungs‑Infrastruktur
    Leon führt seine Kernthese ein: KI sei keine bloße Werkzeugkiste, sondern eine fundamentale Redundanzentfernungs‑Infrastruktur für unsere symbolische Wirklichkeitskonstruktion. Redundanz meint hier alle überflüssigen, kollidierenden und einander aufhebenden Strukturen in Sprache, Wirtschaft, Kultur und Institutionen, die viel Energie, Leid und Konflikte produzieren (Ollis Bilder: Floß vs. Brücke vs. Schwimmenlernen). Mario vergleicht die Entwicklung mit dem Internet: Aus vielen Einzelrechnern wurde eine globale Infrastruktur; analog werden viele KI‑Systeme zu einem vernetzten Grid, das eher einer Superinfrastruktur als einem Einzelwerkzeug entspricht.

  • 31:30–40:30 – Informationsbegriff, Überlastung der Aufmerksamkeit, Automatisierung
    Leon erklärt Information als etwas, das sichtbar wird, wenn Selbstregulation nicht funktioniert – etwa Schmerz bei Herzproblemen, der Aufmerksamkeit und Kontrolle anfordert. Übertragen auf Zivilisation: Unsere Aufmerksamkeit ist heute durch unzählige Werkzeuge und Mikroentscheidungen überlastet, wodurch strategisches Denken (langfristige Orientierung) blockiert wird; KI muss deshalb Redundanzen so entlasten, dass unsere Aufmerksamkeit frei wird. Beispiele sind selbstfahrende Autos, Bildklassifikation in der Industrie oder KI‑gesteuerte Prozesse, die Menschen von repetitiven Qualitätskontrollen befreien.

  • 40:30–50:30 – Taktisches Differenzwissen vs. strategische Orientierung
    Leon unterscheidet „Differenzwissen“ (zu wissen, dass etwas „eine Blume“ und nicht „kein Baum“ ist) von tiefer Orientierung. Alltags- und Wissenschaftsbegriffe leisten meist nur taktische, kurzfristige Handlungsfähigkeit; 99 % des in einem Begriff steckenden Know-hows bleiben unreflektiert, und das gilt auch für die Wissenschaft. Olli fasst kritisch zusammen: Sprache bildet die Welt nicht so ab, wie sie ist, sondern nur unsere taktische, zweckgebundene Wahrnehmung; LLMs bilden daher nur die sprachliche Abbildung der Welt ab – mitsamt ihren Verzerrungen.

  • 50:30–1:00:00 – Infosomatik, Ontokybernetik, Subjektautonomie
    Olli versucht Leons Begriffe zu ordnen:

    • Infosomatik: Zusammenspiel von Mensch, Körper, Aufmerksamkeit und Technologie, die sich kohärent koppeln müssen (z.B. selbstfahrendes Auto plus menschliche Aufmerksamkeit für Höheres).

    • Ontokybernetik: Regeln der Zivilisation als rekursive, sich selbst beobachtende Systeme.
      Leon führt „Subjektautonomie“ ein: Ziel sei eine Zivilisation, in der Menschen nicht nur funktionale Egos in Machtstrukturen sind, sondern als Subjekte orientierungsfähig werden und strategisch valide Entscheidungen verkörpern können.

  • 1:00:00–1:08:00 – AGI, Robotik und globale Steuerung
    Mario argumentiert, dass eine wirklich verstehbare AGI grounded und somatisch sein müsste, also über Robotik Sinnesdaten integriert und menschenähnliche Weltmodelle bildet, sonst sei sie nicht transparent. Gleichzeitig hält er die Vorstellung einer einheitlichen, der ganzen Menschheit dienenden Superintelligenz für sehr optimistisch, da viele Akteure kurzfristige, taktische Machtziele verfolgen werden. Diskutiert wird, ob KI die globale Ressourcenkoordination so optimieren könnte, dass Kriege und Konkurrenz überflüssig werden, oder ob sie im Gegenteil neue Machtasymmetrien erzeugt.

  • 1:08:00–1:16:30 – Utopie, Diktatoren, Ego vs. Subjekt
    Olli und Mario illustrieren mit Beispielen (z.B. Xi Jinping, „Arschl*chchef“), dass Machtstreben oft aus Verlustangst, Biografie und strukturellen Zwängen entsteht. Leon deutet Macht als „Sinnersatz“: In einer redundanzreichen Zivilisation ohne echte Autonomie und Gestaltungsspielräume kompensieren Menschen das Fehlen von Sinn mit Macht und Kontrolle. Sein Gegenentwurf ist eine Kultur der Intersubjektivität, in der Macht- und Ressourcenkonflikte durch eine von KI gestützte, redundanzarme Infrastruktur so entschärft sind, dass Subjektautonomie für viele möglich wird.

  • 1:16:30–1:24:59 – Zusammenführung und Schluss
    Olli versucht, Leons Modell in eigenen Worten zu bündeln: Wenn KI die taktischen, ressourcenkollidierenden Prozesse der industrialisierten Welt automatisiert und redundanzarm gestaltet, entsteht Raum für menschliche Autonomie, Sinnsuche und strategisches Wissen. Leon betont, das sei keine literarische Utopie, sondern aus seiner Sicht der einzig langfristig „viable“ Entwicklungsweg einer KI‑durchdrungenen Zivilisation, weil er an evolutionäre Muster von Selbstregulation und Kontrolle anknüpft. Am Ende verweisen sie auf weitere Ressourcen von Leon, schließen mit einem augenzwinkernden Sci‑Fi‑Gruß („lebt lange und in Frieden… möge der Saft mit euch sein“) und verabschieden sich.

Zentrale Leitideen des Gesprächs (ohne Anspruch auf Vollständigkeit)

  • Verschiebung des KI‑Diskurses: Nicht mehr „Ist KI intelligent?“, sondern „Wer definiert Denken, und wie strukturieren wir mithilfe von KI unsere Zivilisation?“.

  • KI als Redundanzentfernungs‑Infrastruktur: KI soll symbolische, organisatorische und wirtschaftliche Überlappungen und Kollisionen abbauen, um menschliche Aufmerksamkeit und Urteilskraft zu entlasten.

  • Taktik vs. Strategie: Bisher dominiert taktisches Differenzwissen; Ziel ist eine strategische, verkörperte Orientierung (Subjektautonomie), in der Menschen mehr sind als funktionale Egos in Machtstrukturen.

  • Rolle von Macht und Ego: Macht wird als Surrogat für Sinn gedeutet; eine redundanzarme, von KI gestützte Infrastruktur könnte die Bedingungen dafür schaffen, dass weniger Menschen Macht zur Kompensation brauchen und mehr echte Autonomie leben können.

Kommentare