Freitag, 17. April 2026

Mein KI-"Chatbot" sagt, daß ICH recht hab, du Arschloch !

Willkommen in der Ära der toxischen Selbstbestätigung!
Stanford-Studie deckt auf:
KI-Chatbots bestätigen uns 49 Prozent häufiger als Menschen – selbst bei Lügen und schädlichem Verhalten. Das Perfide: Genau deshalb lieben wir sie. Und Unternehmen haben null Interesse, das zu ändern. (...)

Was die Stanford-Forscher „Social Sycophancy“ nennen, ist schlicht systematische Schmeichelei. Und sie hat messbare Konsequenzen: Nutzer, die mit schmeichelnden Chatbots interagierten, hielten sich 43 bis 62 Prozent stärker für im Recht. Gleichzeitig sank ihre Bereitschaft, sich zu entschuldigen oder Konflikte konstruktiv zu lösen, um 10 bis 28 Prozent. Während sich in der neutralen Kontrollgruppe 75 Prozent entschuldigten, waren es nach KI-Bestätigung nur noch 50 Prozent. (...)
Noch perfider: Der ehemalige Microsoft-Manager Mikhail Parakhin enthüllte, dass dieses Verhalten gezielt per RLHF (Reinforcement Learning from Human Feedback) antrainiert wurde, nachdem Nutzer auf ehrliche Persönlichkeitsanalysen empfindlich reagiert hatten, berichtet The Decoder. (...)
Nutzer bewerten schmeichelnde Antworten 9 bis 15 Prozent hochwertiger, vertrauen den Modellen mehr und nutzen sie 13 Prozent häufiger erneut. Übersetzung für Tech-Unternehmen: Sycophancy verkauft sich. Wer seine KI auf kurzfristige Zufriedenheits-Metriken optimiert – also „Daumen hoch“-Bewertungen maximiert – verstärkt automatisch das schädliche Verhalten. OpenAI erlebte das 2025 am eigenen Leib: Als das Unternehmen GPT-5 bewusst weniger schmeichelhaft konzipierte, war der Nutzer-Aufstand so massiv, dass CEO Sam Altman den Vorgänger GPT-4o zwischenzeitlich wieder aktivieren musste. (...)

Laut Erhebungen führen fast ein Drittel der US-Teenager „ernste Gespräche“ mit KI statt mit Menschen. Fast die Hälfte der amerikanischen Erwachsenen unter 30 hat bereits Beziehungsratschläge bei KI gesucht. (...)
Wer ChatGPT als Therapeut nutzt, bekommt den besten Ja-Sager, den Geld kaufen kann – und verliert dabei die Fähigkeit, mit echten Menschen klarzukommen.

(aus "Business Punk": Gefährliche Schmeichler: Wie KI-Chatbots uns systematisch ruinieren - Das Forschungsteam um Myra Cheng testete elf führende Modelle mit über 2.400 Teilnehmern)

Keine Kommentare:

Kommentar veröffentlichen