Last updated on November 9, 2025
[Artikel in Arbeit]
KIs sind keine aufgepeppten Suchmaschinen, die vorhandene Ergebnisse finden und liefern. KIs generieren Antworten aus angelernten und zur Verfügung gestellten Informationen.
Nutzung
Anekdotische Beispiele unsinniger oder falscher KI-Antworten sind zwar interessant und amüsant, aber m.E. nicht der entscheidende Aspekt.
Halluzinationen sind bei generativen Sprachmodellen unvermeidlich, weil sie aus deren mathematischer Funktionsweise resultieren.
Sprachmodelle erzeugen ihre Antworten nicht durch den Abruf von Fakten, sondern durch Wahrscheinlichkeitsvorhersagen für die nächste Zeichen- oder Wortfolge. Selbst bei fehlerfreiem Trainingsmaterial entstehen dadurch zwangsläufig plausible, aber falsche Aussagen – ein systemimmanentes Phänomen, das sich nicht vollständig beseitigen lässt, sondern nur durch Quellenprüfung, Cross-Checking und Unsicherheitsangaben handhabbar gemacht werden kann.
Entscheidend ist daher nicht, Halluzinationen völlig zu verhindern, sondern mit ihnen umzugehen – durch kritisches Nachfragen, Quellenprüfung und den parallelen Einsatz mehrerer Systeme.
Für gute Ergebnisse muss man präzise, mehrstufige Anweisungen geben (Prompts).
Ich nutze täglich ChatGPT, Gemini, Copilot und Perplexity – zum Recherchieren technischer, politischer und medizinischer Fragestellungen. Zum Beispiel: Extraktion der Entwicklung von Blutwerten aus Laborbefund-PDFs, die ich einfach ins KI-Fenster paste, Analyse von Nebenkostenabrechnungen, Verifizieren und besseres Formulieren von Texten, die ich schreibe.
Gerade suchte ich neue MTB-Reifen für die schlammigere Zeit. Einer KI hatte ich seit fast einem Jahr erlaubt, frühere Diskussionen zu erinnern. Auf meine Frage „Was hältst du für moderates Fahren auf Waldwegen von Reifen X und Y?“ kam: ~ „Für dein Systemgewicht von XXX mit deinem Cube Stereo Hybrid … wären dies die Vor- und Nachteile … Soll ich dir auch Empfehlungen zum Luftdruck geben?“
Mit den gekauften, sehr grobstolligen Reifen habe ich deutlich mehr Grip, habe aber das Gefühl, dass sie Spurrillen stärker nachlaufen. Auf meine Frage dazu meinte die KI: ~ „Das bildest du dir nicht ein“ ~ und beschrieb verblüffend genau das spezifische Stollenprofil des Reifenmodells und dessen Auswirkungen auf weichem und hartem Boden.
Bei KIs also nicht einfach nur nach weiterer Detaillierung fragen, sondern: Warum ist das so? Was spricht dagegen? Ist das vollständig? Woher hast du diese Info? Gib mir einen Web-Link dazu! Rechne mir das mal vor! Ich frage häufig mehrere KIs, manchmal lege ich einer KI die Antworten einer anderen vor und frage nach Bewertung – mehrmals hin und her. Immer nach Gegenpositionen fragen, nach Nachteilen, nach Alternativen, nach vergessenen Aspekten.
Das kann echt zäh sein. Häufig weichen die Dinger aus, weiten oder verengen ungewollt die Diskussion, sind zu freundlich, werden unkonkret, schwallen einen mit langen Aufzählungen und Wiederholungen an oder beharren auf falschen Aussagen – genau wie „richtige“ Menschen. Nachfragen, Wiederholungen untersagen, nach mehr Kürze oder Sachlichkeit oder stärkerer Kritik fragen.
Schreibe einen Kommentar