
Ihr kennt das: Da stellt man der KI eine Fachfrage und merkt beim Überfliegen der Antwort, dass sie nicht stimmt. Die Informationen klingen plausibel, sind bei genauerem Hinsehen aber falsch. Das ist doch eher stupide als intelligent, oder?
Weil sie auf Daten und statistischen Wahrscheinlichkeiten beruht. Sie „weiß“ nicht selbst, was wahr ist, sondern sucht in Unmengen von Daten nach relevanten Fakten. Die Lücken, die dabei unweigerlich entstehen, füllt sie kontextgemäß mit Informationen. In etwa so, wie wir Menschen konfabulieren, wenn wir uns nur halb an Details einer Situation in der Vergangenheit erinnern und etwas erfinden, um die Geschichte rund zu machen.
Halluzinieren reicht von kurzweilig bis fragwürdig. Das wurde am Beispiel Nordkoreas untersucht (Studie der ETH Zürich / University of Seoul) und reichte von der Meldung, das Land habe die Fußballweltmeisterschaft 2014 für sich reklamiert (was nicht stimmt) bis zum sich hartnäckig haltenden Gerücht, der Staatsführer Kim-Jong-Un sei verstorben. Das bereichert vielleicht private Diskussionen, doch im Business ist Halluzinieren kontraproduktiv bis gefährlich.
Denn werden falsche Annahmen nicht korrigiert, sondern im Unternehmen weitergetragen, birgt dies Risiken – wie zum Beispiel:
.png)
Die gute Nachricht: Der KI das Halluzinieren abzugewöhnen, geht relativ schnell.
Unsere drei Top-Tipps zur Vermeidung von Halluzinationen bei KI:
Das alte Prinzip „Garbage in – Garbage out“ ist auch bei KI-Anwendungen wahr: unpräzise Fragen – unpräzise Antworten. Je genauer und spezifischer die Abfrage, desto geringer das Risiko, dass die KI falsche Informationen generiert. Gib zum Beispiel immer Informationen über den Kontext mit: Welcher Absender, welcher Empfänger, was ist der Hintergrund der Frage? Oder das gute alte „journalistische Prinzip“: Jede Aussage muss von zwei unabhängigen Quellen belegt sein. Allein das verbessert die Antworten signifikant. Du kannst ihr auch die explizite Anweisung geben, nichts zu erfinden, sondern zu sagen, wenn eine Information nicht verfügbar ist. Das mag anfangs ungewohnt und mühsam sein, wird aber mit besseren Antworten belohnt. insbesondere, wenn du „deine KI“ immer wieder verwendest, sie also trainierst, wird sie klüger.
Mit Retrieval-Augmented Generation – also der Anbindung als verlässlich befundener, verifizierter Quellen, Datenbanken und Dokumente (Studien renommierter Forschungsinstitute, eigene Wissensdatenbanken, selbst oder von Partnern gesammelte Echtdaten etc.) – kann die KI die Fakten nachschlagen, statt sie zu erfinden. Die Halluzinationsraten sinken signifikant: Liegen normale LLM-Sprachmodellen generell bei rund 50%, landen regelmäßig trainierte und weiter entwickelte, hybride RAG-Modelle zwischen 20 und nur 5%. Und speziell auf meine konkreten Aufgaben trainierte Anwendungen tendieren sogar gegen Null. Brauchst du also für deinen Geschäftsbetrieb verlässliche und optimale Ergebnisse, musst du dich von „quick & dirty“-Tools verabschieden und für ein besseres RAG-Modell entscheiden, das für dein Unternehmen und meine spezifischen Anwendungsfälle im Alltag funktioniert.
Vielleicht ist das am wichtigsten: Eine menschliche Intelligenz, die KI-Antworten überprüft und mit unabhängigen Quellen abgleicht. Ein interner Faktencheck für KI-Ergebnisse, eine menschliche Kontrolle geht immer noch schneller, als alles selbst zu recherchieren und alle Dokumente selbst zu durchforsten. Insbesondere bei wichtigen Meilensteinen oder an kritischen Punkten ist die Zuverlässigkeit aller Aussagen und Annahmen essenziell und muss eine menschliche Korrekturschleife eingebaut werden. Zum Beispiel, wenn andere Personen mit den Ergebnissen weiterarbeiten sollen oder eine Kundenfreigabe ansteht. Mit dem "Human in the Loop" machen wir in unseren Projekten sehr gute Erfahrungen.
Und wo wir gerade bei Menschen sind: Eine offene Feedback-Kultur ist ungemein wichtig: Fehler erkennen und zu eliminieren, gehört zum Job. Man könnte sogar sagen, die KI fördert das Lernen aus Fehlern. Und so wird auch die menschliche Intelligenz wie die KI täglich schlauer und besser.
Welche Fälle von Halluzination hast du schon erlebt? Wie gehst du bei deinem Lieblings-Tool mit Halluzinationen um?
Damit die KI im INNO-VERSE nicht halluziniert, haben wir eigene Prompt Engineers, die sehr viel Zeit in das Prompten und Testen stecken. Um zu verlässlichen Ergebnissen zu kommen, musst du dann nur noch Stichwörter eingeben – und schon spuckt die KI deine gewünschten Informationen aus. Du willst sehen, wie das funktioniert? Dann vereinbare einen Termin mit uns und lass dich verblüffen:


Kennen Sie das? Sie sollten sich eigentlich täglich einen Überblick über den Markt, neue Gesetze, den Wettbewerb, neue Technologien oder ähnliches verschaffen. Doch die Informationsflut ist überwältigend und unübersichtlich, Quellen werden undurchsichtiger und fragwürdiger. Und die Zeit für ein kontinuierliches Monitoring fehlt sowieso. Unser KI-Agent „Monitoring Feeds“ ist genau dafür gemacht – für die kontinuierliche Überwachung von Trends, Technologien und Wettbewerb.
.png)
Komplexe Fragestellungen fordern vom Menschen Konzentration, Geduld, Zeit und außerordentliche Sorgfalt. Ganz gleich, ob es um Technologien, Chemie, Medizin oder Wirtschaft geht. Diese Zeit hat man im Tagesgeschäft oft nicht – wenn Sie z. B. in einem kurzfristig anberaumten Kolloquium aktuelle Informationen zum gegenwärtigen Forschungs- und Wissensstand rund um Ihr Projekt präsentieren sollen. Komplexe Research-Aufgaben sind aber wie geschaffen für KI-Agenten! Unser Research Agent bildet dabei wissenschaftliche Arbeitsweisen ab – orchestriert in einem mehrstufigen Denk- und Analyseprozess.
.jpg)
In jedem Sales-Team gibt es Wunschkunden: Die, die genau das Produkt brauchen, das man verkaufen will. Die man gerne auf der Referenzliste hätte. Und vor allem die, mit denen gute Umsätze zu machen sind – ob nun kurzfristige Absatzziele drücken oder strategische Wachstumsziele erreicht werden sollen.