Es gibt einiges, das ich schon unabhängig von KI begriffen habe (wenn es denn richtig ist, aber davon gehe ich - zumindest als Arbeitshypothese erst mal aus):
- Von ihrer Erscheinung her komplexe Dinge können aus einfachen, einzelnen Elementen zusammengesetzt sein
Wenn man sich beispielsweise Fraktale anschaut, so ist deren "Bauformel" sehr einfach, was dabei entsteht, ist aber sehr komplex. Auch in Physik und Chemie können aus einfachen Elementen mit überschaubaren Regeln sehr komplexe Gebilde entstehen. Daraus folgt:
- Komplexe Dinge können entstehen, ohne dass dahinter eine hohe Intelligenz oder ein Bauplan stehen, der schon vom Endergebnis weiß.
Ameisenstaaten oder Bienenvölker bilden psysisch und sozial/organisatorisch sehr komplexe Einheiten und auch so etwas wie Börsenkurse etc. können sehr komplexe und hochgradig flexible Geschehen sein, ohne dass die einzelnen Akteure überragende Intelligenz oder großes Wissen besitzen. Was es braucht, sind viele Einzelne, die aber in einem permanenten Informationsaustausch stehen.
- Einfache Feedback-Schleifen können dafür sorgen, dass aufeinander reagierende, komplexe Systeme entstehen.
Ein großer Teil von dem, was wir Lernen nennen, beruht auf einfachen Feedback-Schleifen: wenn etwas gut war/ankam, mach es wieder/öfter; wenn etwas nicht gut war/ankam, lass es bleiben/mach etwas anderes. Das funktioniert im Grunde gut - es kommt nicht darauf an, dass man begreift, warum etwas nicht gut war/ankam, sondern entscheidend ist, dass man das Feedback für die nächsten Aktionen nutzt.
Deshalb erstaunt mich recht wenig, wozu KI in der Lage ist und demnächst in der Lage sein wird. Weil der Aufbau komplexer Systeme auch mit recht einfachen Mitteln geschehen kann.
Deshalb ist es auch nicht erforderlich, dass KI versteht, was vor sich geht (Analyse) oder was das bedeutet (Sinn) oder dass KI Gefühle hat. Sie macht, was sie macht, ganz ohne das. Dass Menschen glauben, dass KI intelligent sein muss, oder Bewußtsein von dem hat, was sie tut oder dass sie fühlt, halte ich für einen menschengemachten Trugschluss - weil wir sowas brauchen, um zu den Ergebnissen zu kommen.
Darin liegt aber auch die Begrenzung von KI: KI versteht weiter nicht, was sie tut - und noch mehr: ihre "Schöpfer" verstehen es auch nicht - sie selbst wissen nicht genau, was vor sich geht - für sie ist die KI eine black box, denn es sind so dermaßen viele einfache Operationen, dass sie sich nicht mehr nachvollziehen lassen. Ich bin mir dabei noch unsicher, ob das eher eine Frage des Aufwandes ist (denn man könnte ja den Befehl geben, dass die KI jeden ihrer Schritte dokumentiert) oder ob das eher darauf beruht, dass die Entwickler sich nicht in die Karten schauen lassen wollen - es handelt sich ja weitgehend um Firmengeheimnisse.
Insofern simuliert KI die ganze Zeit. Sie macht das sehr gut und sehr schnell. Aber: sie selbst kann überhaupt nicht sagen, ob das, was sie macht, in irgendeiner Art und Weise und warum, etwas mit Wirklichkeit zu tun hat. Sie kann im höchsten Fall sagen, wie wahrscheinlich ein Ergebnis, das sie liefert, den zufrieden stellt, der ihr einen Auftrag gegeben hat.
Daraus folgt, dass man KI in keinster Weise irgendetwas auftragen darf, was entscheidungsrelevant ist.
Und leider ist es genau das, was meiner Meinung nach demnächst passieren wird. Denn wenn ich das richtig einschätze, verlassen sich Regierungen schon jetzt auf KI-gestützte Analysen oder Modellberechnungen, von Militärs ganz zu schweigen.
x-Riff