Mastodon Feed: Post

Mastodon Feed

Boosted by jsonstein@masto.deoan.org ("Jeff Sonstein"):
HxxxKxxx@det.social ("Harald Klinke") wrote:

Warum halluzinieren Sprachmodelle?

Nicht weil sie „kaputt“ sind – sondern weil ihr Training sie dafür belohnt, plausible Antworten zu geben, auch wenn sie unsicher sind.

Schon im Pretraining entstehen Fehler: seltene Fakten können nicht zuverlässig gelernt werden.
Im Post-Training wird „Raten statt IDK“ durch Benchmarks belohnt – Modelle sind „gute Testteilnehmer“, aber keine Wahrheitsmaschinen.
#DigitaleSouveränität #KIInfrastruktur #TrustworthyAI
PDF https://cdn.openai.com/pdf/d04913be-3f6f-4d2b-b283-ff432ef4aaa5/why-language-models-hallucinate.pdf

An academic paper titled "Why Language Models Hallucinate," authored by Adam Tauman Kalai, Ofir Nachum, Santosh S. Vempala, and Edwin Zhang, discusses the phenomenon of large language models producing incorrect yet plausible statements due