Heute ist "Ich versetze Oliver beim Zoomtermin"-Tag - jedenfalls heute Nachmittag schon zwei. Drum schreib ich zwei, drei Gedanken zu KI nieder, die mir die Tage kamen bzw. an die ich mich erinnerte.
1)
Der erste Gedanke kam mir beim Anschauen und Hören des Vortrags von Andrej Karpathy, den ex KI-Chef von Tesla über Trends für KI-Software. Im Wesentlichen erzählte er Studis und jungen Entrepreneuren (mwd), was es in Zukunft für die nächste Softwaregeneration (KI) braucht (u. a. bessere GUIs, echt?)
Mein Gedanke wäre wahrscheinlich in einem Buch besser ausgewalzt, aber ich probier es mal kondensiert. Vom Privatunterricht bei den Römern, der Lateinschule im Mittelalter, der Uni im Spätmittelalter bis heute (incl. Schulpflicht etc.) war es immer Zweck der Schule, Menschen auszubilden, die immer komplexere Staatswesen incl. Handel, Wirtschaft, Handwerk etc. managen können. Irgendwann kam dann noch die Bildung zum kritikfähigen Staatsbürger dazu.
Wenn Karpathy recht hat und wir mittelfristig vor allem 'Aufseher' von Horden von KIs sind (sagt er indirekt, weil alle KIs von Menschen gemanagt werden müssen): Haben wir aktuell die Schule, die Leute dazu ausbildet? Bzw. wie müsste diese Schule, Ausbildung und Uni aussehen? ( cc: Christian Spannagel)
2)
Eins sehr sehr (sehr) alter Gedanke von mir ist (back in the 80ies), dass wenn ein Computer so gebaut ist, dass er das menschliche Gehirn optimal simuliert, er dann genauso fehlerhaft wäre, wie das menschliche Gehirn. Gerade höre ich im Podcast, dass Pokemon-spielende KIs in gefährlichen Situationen in "Panik geraten" und nicht mehr alle ihnen zur Verfügung stehenden Befehle nutzen).
Sutsksever hat in einer Rede von Absolventen (mwd) gesagt, dass Computer und Menschen ebenbürtig sind, weil sie beide Gehirn haben. Biologische und digitale. Ich würde eben genau sagen, dass dem nicht der Fall ist - aus dem gleichen Grund. Denn dann müsste ich ALLES im Computer nachbauen: Vergessen, Kurzschlussdenken (fallacies), Hormone, verliebt sein, Eifersucht, Hass, Aggression, Körperbewusstsein, Schmerz, etcetcetc. Zu sagen: wir bauen nur das 'Gute' nach, naja, dann ist es halt nicht gleich. Und wäre es 100% gleich, wäre es nutzlos.
Da spielen die Unsterblichkeitsfantasien mancher Supergeeks rein, vom MIT (Ray Kurzweil) bis ins Valley. (Loide: Ketamin wirkt nicht auf IT ...)
2a)
Dieser Gleichheitsgedanke zielt nicht nur darauf ab, tolles Marketing für KI zu sein, er entwertet auch Menschen. Witch is the problem. Kongnitioide Maschinen sind halt keine Menschen.
Kommentare