Mechanik der Halluzination: Sprachmodelle optimieren Log‑Likelihood, nicht Wahrheitsgehalt. Ohne Faktenanker verwechseln sie statistische Nähe mit Faktennähe.
Risikodomänen: Medizinische Beratung, Rechtstexte und Journalismus erfordern 99,9 % Genauigkeit. Ein halluziniertes Medikament kann Leben gefährden.
Mitigation: Retrieval‑Augmented‑Generation und Fact‑Checking‑Pipelines reduzieren Halluzinationen. Doch End‑User‑Schulung bleibt unverzichtbar.