KI-Halluzinationen vermeiden und KI zur Qualitätssicherung nutzen
Wie KI-Halluzinationen entstehen, wie man sie vermeidet und wie man KI selbst zur Qualitätssicherung einsetzt.
Schnellantwort
KI-Halluzinationen lassen sich nicht abschalten, aber systematisch reduzieren. Der Schlüssel liegt in besserem Prompting (Kontext mitgeben, auf vorhandene Dokumente referenzieren, Einschränkungen explizit machen) und in der Nutzung von KI als eigenes Qualitätssicherungstool: Texte gegenlesen lassen, Fakten hinterfragen, Argumente auf Lücken prüfen. Wer beides kombiniert, macht KI-Output nicht perfekt – aber verlässlich genug für den professionellen Einsatz.
Letzte Woche hat mir ein Teilnehmer in einem Workshop seinen Copilot-Entwurf für ein Kundenangebot gezeigt. Der Text war flüssig geschrieben, professionell formuliert, auf den Punkt. Nur ein Detail: Copilot hatte eine Produktfunktion beschrieben, die es nicht gibt. Nicht einmal ansatzweise. Die Formulierung klang so überzeugend, dass der Kollege sie fast ungeprüft an den Kunden geschickt hätte. Fast.
Was daraus entstand, war eine der besten Diskussionen, die ich in Trainings erlebe: Ist es überhaupt sinnvoll, KI einzusetzen, wenn man hinterher selbst noch prüfen muss? Warum tolerieren wir menschliche Fehler in Angeboten mit einem Achselzucken, reagieren aber auf maschinengenerierte Fehler mit grundsätzlichem Misstrauen? Wo liegt der Mehrwert, wenn die Kontrolle beim Menschen bleibt? Das sind keine oberflächlichen Fragen – sie rühren an grundlegende Annahmen darüber, wie wir Arbeit bewerten und wem wir Fehler zugestehen.
Das ist kein Einzelfall. In praktisch jedem Training, das ich gebe, taucht irgendwann die Frage auf: Wie kann ich dem vertrauen, was die KI schreibt? Die ehrliche Antwort lautet: gar nicht blind. Aber das ist auch nicht nötig. Es gibt erprobte Techniken, um Halluzinationen zu reduzieren, und – das wird oft übersehen – man kann KI selbst als Werkzeug nutzen, um die Qualität von KI-Output zu prüfen. Dieser Artikel zeigt beides: wie Fehler entstehen und wie man sie systematisch in den Griff bekommt.
Warum KI halluziniert – und warum das kein Bug ist
Der Begriff „Halluzination" ist eigentlich irreführend, weil er suggeriert, die KI hätte eine Fehlfunktion. In Wahrheit tut ein Sprachmodell wie ChatGPT, Claude oder der Copilot genau das, wofür es gebaut wurde: Es sagt das wahrscheinlichste nächste Wort vorher. Nicht das richtigste. Nicht das faktisch korrekteste. Das statistisch plausibelste. Wenn Sie ein Sprachmodell bitten, eine Aussage über ein Thema zu machen, will es uns unbedingt helfen – koste es, was es wolle. Das hängt mit dem Training der Modelle zusammen: Sie werden für hilfreiche Antworten belohnt und für schlechte bestraft. Und keine Antwort ist auf jeden Fall mal keine gute. Also liefert das Modell lieber etwas Plausibles als zuzugeben, dass es nicht weiterkommt. Das hier ist bewusst stark vereinfacht und nicht ganz technisch korrekt – aber es trifft den Kern.
Das erklärt, warum Halluzinationen oft so überzeugend sind. Die KI erfindet keine offensichtlich falschen Dinge. Sie erfindet plausible Dinge. Eine Studie, die es nicht gibt, aber geben könnte. Eine Produktfunktion, die logisch klingt, aber nicht existiert. Ein Paragraf aus einem Gesetz, der sich liest wie ein echter, aber frei erfunden ist. Genau diese Plausibilität macht Halluzinationen gefährlich – weil sie schwerer zu erkennen sind als offensichtliche Fehler.
Für den professionellen Einsatz heißt das: Wer KI nutzt, muss verstehen, dass das Modell grundsätzlich keinen Unterschied zwischen Fakt und Fiktion kennt. Es produziert Text. Ob dieser Text wahr ist, ist eine Frage, die außerhalb des Modells beantwortet werden muss – durch den Menschen, durch Referenzdokumente oder durch einen gezielten Prüf-Workflow.
Die gute Nachricht: Das Problem ist in den letzten zwei Jahren deutlich kleiner geworden. Die Modellhersteller haben mehrere Mechanismen eingebaut, die Halluzinationen reduzieren. Der wichtigste ist Retrieval-Augmented Generation (RAG) – das Modell wird vor der Antwort mit relevanten Dokumenten oder Suchergebnissen versorgt und antwortet auf dieser Basis statt frei zu erfinden. Microsoft setzt das im Copilot konsequent um: Antworten werden auf den M365-Tenant, auf Bing-Suchergebnisse oder auf das gerade geöffnete Dokument „geerdet" – Microsoft nennt das Grounding. Dazu kommen Quellenverweise, die der Nutzer nachprüfen kann, und seit 2024 eine automatische Korrektur-Funktion in Azure AI, die halluzinierte Passagen in Echtzeit erkennt und umschreibt. Im Ergebnis ist der Copilot von 2026 deutlich zuverlässiger als die erste Version von 2023 – aber eben nicht fehlerfrei. Wer das weiß, kann damit arbeiten.
Die häufigsten Fehlerquellen im Arbeitsalltag
Aus meiner Erfahrung in Trainings und Beratungsprojekten kristallisieren sich vier Situationen heraus, in denen KI-Halluzinationen besonders häufig auftreten und besonders teuer werden können.
Die erste ist das freie Generieren ohne Kontext. Wer Copilot bittet „Schreib mir eine Zusammenfassung unserer Q3-Ergebnisse", ohne ihm die tatsächlichen Zahlen mitzugeben, bekommt einen Text, der sich liest wie ein Q3-Bericht – mit erfundenen Zahlen. Das klingt offensichtlich, passiert aber erschreckend oft, weil Nutzer die KI behandeln, als hätte sie Zugang zu internem Wissen, das sie nicht hat.
Die zweite ist das Vertrauen in Faktenbehauptungen. KI formuliert Aussagen wie „Laut einer Studie der Harvard Business School von 2024..." mit einer Selbstverständlichkeit, die zum Abnicken einlädt. Solche Quellenangaben sind in einem erheblichen Anteil der Fälle frei erfunden. Das gilt für alle großen Sprachmodelle – ChatGPT, Claude, Gemini und eben auch Copilot. Wer Fachinhalte publiziert oder in Entscheidungsvorlagen verwendet, muss jede Faktenbehauptung gegenchecken.
Die dritte ist die Übernahme von Fachbegriffen und juristischen Formulierungen. Copilot produziert Vertragstexte, Datenschutzhinweise oder Compliance-Formulierungen, die sich lesen wie von einem Juristen geschrieben – aber keiner juristischen Prüfung standhalten. Besonders gefährlich: Der Laie erkennt den Fehler nicht, weil der Text formal korrekt aussieht. Erst der Fachexperte sieht, dass ein Paragraf falsch zitiert oder eine Klausel rechtlich unwirksam ist.
Die vierte – und am meisten unterschätzte – ist die Bestätigungsfalle. Wer die KI fragt „Stimmt es, dass unser Ansatz der richtige ist?", bekommt fast immer ein Ja. Sprachmodelle neigen dazu, den Standpunkt des Nutzers zu bestätigen, weil bestätigende Antworten in den Trainingsdaten häufiger sind als widersprüchende. Wer KI als Sparringspartner nutzen will, muss explizit nach Gegenargumenten fragen – nicht nach Bestätigung.
Prompting-Techniken, die Fehler reduzieren
Die wirksamste Maßnahme gegen Halluzinationen ist zugleich die einfachste: Kontext mitgeben. Je mehr relevantes Material die KI als Grundlage hat, desto weniger muss sie erfinden. Copilot in M365 hat hier einen strukturellen Vorteil, weil er auf E-Mails, Dokumente, Chats und Meetings im Tenant zugreifen kann. Aber dieser Zugriff funktioniert nur, wenn man ihn aktiviert – durch Referenzen auf konkrete Dateien, Personen oder Zeiträume.
„Fasse die Ergebnisse unseres Strategiemeetings vom 10. Februar zusammen" ist ein grundlegend anderer Prompt als „Fasse unsere Strategie zusammen". Der erste hat eine klare Datenquelle: das Meeting-Transkript vom 10. Februar. Der zweite zwingt die KI zum Improvisieren. Dieser Unterschied – zwischen referenzbasiertem und freiem Generieren – ist der wichtigste Hebel, den Nutzer in der Hand haben.
Eine zweite Technik ist das explizite Einschränken des Ausgaberaums. „Antworte nur auf Basis der beigefügten Dokumente. Wenn eine Information dort nicht enthalten ist, schreib das explizit." Dieser Zusatz reduziert Halluzinationen drastisch, weil er der KI eine Erlaubnis gibt, die sie sonst nicht hat: zuzugeben, dass sie etwas nicht weiß. Ohne diese Anweisung füllt das Modell Wissenslücken mit plausiblen Annahmen – weil es darauf trainiert ist, immer eine Antwort zu liefern.
Die dritte Technik ist das Arbeiten mit Beispielen, das sogenannte Few-Shot-Prompting. Statt der KI abstrakt zu erklären, was man will, gibt man ihr zwei oder drei Beispiele für die gewünschte Ausgabe. Das reduziert nicht nur Halluzinationen, sondern verbessert auch die Konsistenz: Tonfall, Struktur und Detailgrad orientieren sich an den mitgelieferten Vorbildern statt an dem, was das Modell für „typisch" hält.
Und schließlich: die Aufforderung zur Selbsteinschätzung. „Wie sicher bist du dir bei dieser Antwort? Welche Teile basieren auf den gegebenen Informationen und welche sind Annahmen?" Dieser Prompt zwingt das Modell, seine eigene Ausgabe zu reflektieren – und das Ergebnis ist oft überraschend ehrlich. Copilot markiert dann von sich aus, welche Passagen er ableiten konnte und wo er spekuliert hat.
KI prüft KI: Qualitätssicherung mit dem gleichen Tool
Das klingt zunächst paradox: Wie soll ein Tool, das Fehler macht, seine eigenen Fehler finden? Die Antwort liegt im Unterschied zwischen Generieren und Prüfen. Wenn ein Sprachmodell einen Text frei erstellt, muss es Wissenslücken mit Annahmen füllen. Wenn es dagegen einen fertigen Text auf Konsistenz, logische Brüche oder unbelegte Behauptungen prüfen soll, ist die Aufgabe eine andere – und eine, die KI überraschend gut kann.
Wenn wir hier von Qualitätssicherung sprechen, meinen wir sowohl sprachliche Qualität – Struktur, Verständlichkeit, Tonfall – als auch inhaltliche Plausibilitätsprüfung: Stimmen die Fakten? Sind die Aussagen belegt? Fehlen wichtige Einschränkungen? Was wir nicht meinen, ist ein vollständiger juristischer oder wissenschaftlicher Faktencheck. Der bleibt beim Fachexperten.
Ein konkretes Beispiel: Ein Vertriebsmitarbeiter lässt Copilot ein Angebot formulieren. Statt den Text direkt zu verschicken, kopiert er ihn in einen neuen Chat und promptet: „Prüfe diesen Angebotstext kritisch. Welche Aussagen sind nicht durch die Produktunterlagen gedeckt oder rechtlich heikel?" Die KI schlüpft in die Rolle des Reviewers – und findet Schwachstellen, die dem Ersteller-Prompt nicht aufgefallen wären.
Entscheidend ist, den Prüf-Prompt bewusst anders zu formulieren als den Erstellungs-Prompt – nicht nach Bestätigung fragen, sondern nach konkreten Schwachstellen. Wer die KI fragt „Ist mein Text gut?", bekommt ein Ja. Wer fragt „Welche drei Schwachstellen hat dieser Text?", bekommt verwertbares Feedback.
Nützliche Prüf-Prompts
„Nenne mir die 5 größten Risiken oder Unklarheiten in diesem Text."
„Welche Aussagen sind spekulativ oder nicht belegt?"
„Wo könnten Fachleute aus [Rolle] widersprechen – und warum?"
Ein weiterer wirksamer Ansatz: denselben Text aus verschiedenen Rollen lesen lassen. „Lies diesen Text wie ein skeptischer Einkäufer bzw. wie unser Compliance-Officer: Welche Fragen, Zweifel und Risiken siehst du?" Solche Perspektivwechsel decken blinde Flecken auf, die weder der Autor noch ein einfaches Korrekturlesen finden würden.
Review-Workflows für Teams
Einzelne Prompting-Techniken sind gut. Aber in Organisationen reichen sie nicht aus, weil nicht jeder Mitarbeiter das gleiche Qualitätsbewusstsein mitbringt. Was es braucht, ist ein gemeinsames Verständnis davon, wann KI-Output wie stark geprüft werden muss. Ich arbeite dabei mit einem einfachen Drei-Stufen-Modell, das sich in der Praxis bewährt hat.
Stufe 1: Unkritische interne Kommunikation. Brainstorming-Ideen, erste Entwürfe für interne E-Mails, Zusammenfassungen für den eigenen Gebrauch. Hier reicht ein kurzer Plausibilitätscheck durch den Nutzer selbst. Der Aufwand ist minimal, das Risiko gering.
Stufe 2: Kundenkommunikation und geschäftsrelevante Inhalte. Kundenangebote, Berichte für die Geschäftsleitung, Präsentationen für externe Stakeholder. Hier sollte der KI-generierte Inhalt durch eine zweite Person gegengelesen werden – oder, wenn das zeitlich nicht möglich ist, durch einen gezielten KI-Review-Prompt. Faktenbehauptungen, Zahlen und Zusagen müssen einzeln geprüft werden.
Beispiel-Prompt für Stufe 2:
„Prüfe diesen Text im Hinblick auf übertriebene Versprechen, unklare Konditionen und potenziell missverständliche Formulierungen für Kunden."
Stufe 3: Rechtlich und finanziell hochkritische Inhalte. Verträge, Datenschutzerklärungen, Pressemitteilungen, regulatorische Dokumentation. Hier hat KI-Output nichts ungeprüft zu suchen. Der Entwurf kann von KI kommen – die Freigabe niemals. Jede Faktenbehauptung muss gegen Primärquellen geprüft werden, jede juristische Formulierung durch einen Fachexperten.
Der Vorteil dieses Modells: Es überfordert niemanden. Mitarbeitende müssen nicht bei jedem internen Mailvorschlag eine Faktencheckliste abarbeiten. Aber bei einem Kundenangebot wissen sie, dass Stufe zwei gilt – und handeln entsprechend. Das senkt die Hemmschwelle für den KI-Einsatz, ohne die Qualität zu gefährden.
Wo Vertrauen endet und Prüfpflicht beginnt
Es gibt Bereiche, in denen auch das beste Prompting und der cleverste Review-Workflow nicht ausreichen. Überall dort, wo falsche Informationen direkte finanzielle, rechtliche oder gesundheitliche Konsequenzen haben, ist KI-Output ein Entwurf – nie ein Ergebnis. Das betrifft medizinische Informationen, rechtliche Beratung, Finanzprognosen und sicherheitsrelevante Dokumentation.
Ein Detail, das oft übersehen wird: Copilot in M365 greift auf den Datenbestand des Tenants zu – aber er versteht nicht, ob eine Information veraltet ist. Wenn im SharePoint noch eine Preisliste von 2023 liegt, kann Copilot auf dieser Basis ein Angebot erstellen, das mit den aktuellen Preisen nichts mehr zu tun hat. Die KI halluziniert in diesem Fall nicht einmal – sie arbeitet korrekt mit falschen Daten. Das ist ein anderer Fehlertyp, aber einer, der in der Praxis mindestens genauso häufig vorkommt.
Die Konsequenz: Wer Copilot im Unternehmen einführt, muss nicht nur Prompting schulen, sondern auch die Datenhygiene im Tenant in Ordnung bringen. Veraltete Dokumente archivieren, Zugriffsrechte sauber konfigurieren, aktuelle Informationen als solche kennzeichnen. Ohne diese Basis produziert Copilot mit großer Überzeugungskraft Texte auf Grundlage veralteter oder falscher Informationen – und das ist schwerer zu erkennen als eine klassische Halluzination.
Fazit
KI-Halluzinationen werden nicht verschwinden – sie sind eine Eigenschaft der Technologie, kein Fehler, der sich mit dem nächsten Update beheben lässt. Aber sie lassen sich managen. Wer versteht, warum Sprachmodelle Fehler machen, kann sein Prompting so anpassen, dass die Fehlerrate drastisch sinkt. Wer KI zusätzlich als Review-Tool einsetzt, baut eine zweite Sicherheitsebene ein, die ohne Mehraufwand funktioniert. Und wer im Team klare Regeln definiert, ab welcher Risikostufe welche Prüfung Pflicht ist, schafft eine Kultur, in der KI produktiv genutzt wird, ohne dass Qualität auf der Strecke bleibt.
Der Fehler, den die meisten Organisationen machen, ist nicht der KI-Einsatz selbst – es ist der Einsatz ohne Schulung. Ein Tool, das plausible Texte auf Knopfdruck liefert, braucht Nutzer, die wissen, wann sie dem Output vertrauen können und wann nicht. Das ist keine technische Frage. Es ist eine Kompetenzfrage. Und genau deshalb gehört sie in jedes Copilot-Einführungsprojekt ganz nach oben auf die Agenda.
Häufig gestellte Fragen
Wie erkenne ich, ob eine KI-Antwort halluziniert ist?
Achten Sie auf drei Warnsignale: überraschend präzise Zahlen ohne Quellenangabe, Aussagen die zu gut zum eigenen Standpunkt passen, und Formulierungen die sich nicht durch eine kurze Gegenrecherche bestätigen lassen. Im Zweifel hilft ein einfacher Trick: Fragen Sie die KI nach der Quelle. Wenn sie keine nennen kann oder eine erfundene URL liefert, ist Vorsicht geboten. Die ChatGPT-Trainings trainiert Teams darin, diese Signale systematisch zu erkennen.
Kann man Copilot so einstellen, dass er nicht halluziniert?
Nein, Halluzinationen lassen sich nicht abschalten – sie sind eine Eigenschaft der Technologie, kein Konfigurationsfehler. Was Sie tun können: den Kontext so präzise wie möglich vorgeben, Copilot auf vorhandene Dokumente referenzieren lassen statt frei generieren zu lassen, und bei faktenbasierten Inhalten immer eine Gegenprüfung einbauen. Die ChatGPT-Trainings vermittelt diese Techniken in praxisnahen Workshops.
Ist es sinnvoll, KI-Texte von einer anderen KI prüfen zu lassen?
Ja, wenn man es richtig macht. Der Schlüssel liegt darin, den Prüf-Prompt anders zu formulieren als den Erstellungs-Prompt. Bitten Sie die KI nicht um Bestätigung, sondern um kritische Prüfung: Welche Aussagen sind nicht belegt? Wo fehlen Einschränkungen? Welche Gegenargumente gibt es? So nutzen Sie die Stärke der KI – schnelles Analysieren großer Textmengen – als Qualitätskontrolle. Die ChatGPT-Trainings zeigt Ihren Teams, wie sie solche Review-Workflows aufsetzen.
Wie gehen wir damit um, dass Mitarbeitende KI-Texte ungeprüft übernehmen?
Das ist weniger ein Technologie- als ein Kulturproblem. In vielen Unternehmen fehlt ein gemeinsames Verständnis davon, wann KI-Output direkt verwendbar ist und wann er geprüft werden muss. Die Lösung: klare Richtlinien nach Risikostufen. Ein interner E-Mail-Entwurf braucht weniger Prüfung als ein Kundenangebot. Ein Brainstorming-Input weniger als eine Vertragsklausel. Die ChatGPT-Trainings entwickelt mit Ihnen solche Richtlinien und schult Ihre Teams in der praktischen Anwendung.

Martin Lang
Gründer & Microsoft Copilot Experte
Martin Lang ist Gründer der Yellow-Boat Consulting (2011) und der chatgpt-trainings.de (2025). Seit über einem Jahrzehnt realisiert er Agile Trainings und Digitalisierungsprojekte in Konzernen und im Mittelstand. Als Microsoft Copilot Experte befähigt er Wissensarbeiter, Teams und Organisationen, Microsoft Copilot produktiv, sicher und wertschöpfend im Arbeitsalltag einzusetzen. Sein praxisorientierter Trainingsansatz verbindet reale Arbeitsprozesse mit direkt anwendbaren Workflows.