Samstag, 11. Oktober 2025

Warum "KI" weder "selbst-lernend", noch "intelligent" ist

"KI" kann nicht "lernen", sondern verknüpft nur die ihr eingespeicherten "Muster", die permanent von Menschen ("Click-Workern") verfeinert, nach-justiert und "logisch" eingeordnet werden müssen. Wo noch Eingaben fehlen kann die "KI" inzwischen zu fast jedem Thema pseudo-reale Ergebnisse kreieren, die in sich "logisch" wirken, aber nur Kopien "passender Muster" sind - daher passieren all die bekannten Abstrusitäten*, wo man es einer "KI" überläßt, praktische Dinge zu organisieren... Und es gibt keinen Anlaß zu glauben, daß irgendwann Algorithmen wirklich "intelligent" werden und mit quasi-menschlicher "Erfahrung" reagieren können.

Der Philosoph M. Andrick drückt es so aus: "Im Prinzip kann mit generativer und agentischer KI ein Kosmos aus Texten, Bildern, Audio- und Videoelementen erzeugt werden, der selbstreferenziell ist und aus seinen eigenen Mustern „lernt“, das heißt, der die Evolution seiner Bedeutungselemente selbst vollzieht. Eben das heißt Maschinenlernen: Mustererkennung und Anpassung der Ausgaben von Programmen im Lichte der auch im eigenen „Output“ erkannten Muster.
Wir sehen eine Ordnung bedeutungstragender Elemente, die in elektronischer Bewegung sind – und die dabei das Analysematerial für algorithmische Überwacher und Adjustierer dieser Bewegung ebenso selbst produziert wie stetig sich wandelnde neue Bedeutungselemente. Ein solches Geschehen muss Emergenzphänomene zeitigen. So nennt man in der Wissenschaftstheorie Ereignisse und Eigenschaften, die sich in oder an einem System zeigen und die nicht aus den Elementen dieses Systems und seinen Prinzipien erklärt werden können.
In großen Sprachmodellen wie ChatGPT ist das Emergenzphänomen des „Halluzinierens“ in mehreren Ausprägungen bekannt. Zum Beispiel neigt das Programm dazu, bei Fragen mit mehreren Komponenten, die seine Trainingsdaten nur teilweise bedienen können, Tatbestände oder gleich ganze Geschichten zu erfinden, um die Lücken zu füllen. Teilweise unsinnige Aussagen aus Halluzinationen würden in einem abgeschlossenen System generativ erzeugter Inhalte direkt in den „Faktenbestand“ wandern, mit dem das System seine Selbstevolution fortsetzt. (...) 
Wahrheit kann in dieser Ordnung generativer KI nur noch als Zusammenhang (Kohärenz) und Widerspruchsfreiheit von Aussagen des Systems untereinander, nicht mehr aber als Entsprechung (Korrespondenz) von Behauptung und realen Sachverhalten bestimmt werden. (...)
Diese neue Dynamik in unseren digitalen Räumen kann den Realitätsabschied, den skrupellose Machtpolitik immer in sich trägt, in ein dystopisches Extrem führen. (...)
In dieser neuen Ordnung wären unter den medial vermittelt lebenden Menschen nur noch Narrative und keine Tatsachen mehr benennbar. Die Herren der Narrative wären endgültig die Herren der Welt … wenn auch nur der Pseudowelt, die ihre KI-betriebene Mediensphäre generiert hat und nun teilberechenbar fortschreibt.
"**
_________
* z.B.: "
In der Kreditvergabe zeigt sich mathematischer Bias [= systematische Wahrnehmungs-Verzerrung] in Daten besonders hart. Algorithmen bewerten Anträge basierend auf historischen Daten, die oft Ungleichheiten widerspiegeln. Nehmen wir das COMPAS-System: Es bewertete Rückfallrisiken und benachteiligte afroamerikanische Personen mit einer Fehlerrate, die 45 % höher lag (...). In Deutschland prüfen Banken mit KI Kreditwürdigkeit, doch wenn Trainingsdaten Einkommensunterschiede zwischen Geschlechtern enthalten, lehnen Algorithmen Frauen öfter ab. Studien deuten auf bis zu 30 % höhere Ablehnungsraten für Minderheiten hin.
Das führt zu einem Kreislauf: Verzerrte Entscheidungen verstärken bestehende Ungleichheiten. (...) Wenn Modelle nur Daten aus städtischen Gebieten lernen, scheitern sie in ländlichen Regionen, was zu ineffizienten Ressourcenverteilungen führt.
Verzerrte Daten in autonomen Systemen können lebensbedrohlich sein, da sie zu Fehlentscheidungen in neuen Szenarien führen: autonome Systeme wie selbstfahrende Autos leiden ebenfalls unter Bias.(...) Eine Studie zeigt, dass solche Modelle in Tests einen Fehleranstieg von 31,8 % aufweisen, wenn Trainingsdaten nicht divers sind. Gesichtserkennung in autonomen Fahrzeugen erkennt oft Personen mit dunklerer Haut schlechter, was Sicherheitsrisiken birgt. In der Praxis: Ein Algorithmus, trainiert auf Daten aus einer Stadt, versagt in einer anderen durch Kontextbias."
 ("TZG": "Wenn Daten lügen...", 11.10.2025)
** Michael Andrick: Das alte Europa und die neue KI – real existierende Postmoderne? Teil 2 ("Berliner Zeitung") - trotz teils abstruser Beispiele eine richtige Schlußfolgerung

Keine Kommentare:

Kommentar veröffentlichen