
Boosted by jsonstein@masto.deoan.org ("Jeff Sonstein"):
HxxxKxxx@det.social ("Harald Klinke") wrote:
Warum halluzinieren Sprachmodelle?
Nicht weil sie „kaputt“ sind – sondern weil ihr Training sie dafür belohnt, plausible Antworten zu geben, auch wenn sie unsicher sind.
Schon im Pretraining entstehen Fehler: seltene Fakten können nicht zuverlässig gelernt werden.
Im Post-Training wird „Raten statt IDK“ durch Benchmarks belohnt – Modelle sind „gute Testteilnehmer“, aber keine Wahrheitsmaschinen.
#DigitaleSouveränität #KIInfrastruktur #TrustworthyAI
PDF https://cdn.openai.com/pdf/d04913be-3f6f-4d2b-b283-ff432ef4aaa5/why-language-models-hallucinate.pdf