LLM-Halluzinationen verstehen und erkennen
Was sind LLM-Halluzinationen?
Große Sprachmodelle (Large Language Models, LLMs) erzeugen gelegentlich Inhalte, die überzeugend klingen, aber faktisch falsch sind. Dieses Phänomen wird als Halluzination bezeichnet. Im HR-Kontext kann das besonders problematisch sein, wenn etwa falsche Rechtsgrundlagen zitiert oder erfundene Statistiken wiedergegeben werden.
Warum halluzinieren Sprachmodelle?
LLMs funktionieren nach dem Prinzip der statistischen Vorhersage des nächsten Tokens. Sie haben kein echtes Weltverständnis, sondern erkennen Muster in den Trainingsdaten und erzeugen daraus wahrscheinliche Textfortsetzungen. Dabei kann es passieren, dass das Modell:
- Plausibel klingende Fakten erfindet, weil sie statistisch zum Kontext passen
- Quellen nennt, die nicht existieren (z.B. fiktive Studien oder Gesetzesparagrafen)
- Veraltete Informationen als aktuell darstellt
- Verschiedene Fakten miteinander vermischt und so falsche Zusammenhänge herstellt
Typische Halluzinationen im HR-Bereich
In der Personalarbeit begegnen uns Halluzinationen in verschiedenen Formen:
- Falsche Rechtsverweise: Das Modell zitiert Paragrafen aus dem BetrVG oder AGG, die so nicht existieren oder falsch wiedergegeben werden.
- Erfundene Statistiken: "Laut einer Studie der Universität Mannheim aus 2023..." — eine Studie, die es nie gab.
- Inkorrekte Fristen: Falsche Angaben zu Kündigungsfristen, Probezeiten oder Meldefristen.
- Veraltete Regelungen: Bezugnahme auf Gesetze oder Tarifverträge in einer nicht mehr gültigen Fassung.
Wie erkennt man Halluzinationen?
Es gibt einige praktische Strategien, um Halluzinationen zu identifizieren:
- Quellen prüfen: Wenn das Modell konkrete Studien, Gesetze oder Zahlen nennt, verifizieren Sie diese immer über eine unabhängige Quelle.
- Misstrauen bei übermäßiger Sicherheit: LLMs drücken sich oft sehr bestimmt aus, auch wenn sie unsicher sein sollten. Ein selbstbewusster Ton ist kein Indikator für Korrektheit.
- Gegenprüfung durch Nachfragen: Stellen Sie dem Modell gezielte Rückfragen zu seinen Aussagen. Inkonsistente Antworten deuten auf Halluzinationen hin.
- Plausibilitätscheck: Vergleichen Sie die Antwort mit Ihrem eigenen Fachwissen. Klingt etwas zu gut, zu spezifisch oder zu einfach, ist Vorsicht geboten.
Praktische Empfehlungen für HR
Im Arbeitsalltag sollten Sie folgende Grundregeln beachten:
- Nutzen Sie KI-Ausgaben als Entwurf, nicht als finale Antwort.
- Verlassen Sie sich bei rechtlichen Fragen nie ausschließlich auf KI-generierte Inhalte.
- Etablieren Sie einen Review-Prozess, bei dem KI-Ergebnisse von Fachpersonen geprüft werden.
- Dokumentieren Sie, welche Inhalte KI-gestützt erstellt wurden, um Transparenz zu gewährleisten.
Halluzinationen sind kein Grund, auf KI zu verzichten — aber ein guter Grund, sie mit der nötigen Sorgfalt einzusetzen. Ein kritischer Umgang mit KI-Ausgaben ist die wichtigste Kompetenz im Umgang mit modernen Sprachmodellen.