Eine neue Studie des Massachusetts Institute of Technology untersucht, wie robust große Sprachmodelle (LLMs) beim Lösen mathematischer Textaufgaben auf systematisch eingeführte Prompt-Störungen reagieren. Das Ergebnis: Schon kleine Veränderungen im Eingabetext führen zu erheblichen Leistungseinbußen.
Der Artikel LLMs scheitern an irrelevanten Informationen – was das fürs Prompting bedeutet erschien zuerst auf THE-DECODER.de.