Mini-LLMs erreichen mit rStar-Math von Microsoft o1-Leistung bei Mathe-Aufgaben

Microsoft Research Asia hat mit rStar-Math eine neue Methode vorgestellt, die es kleinen Sprachmodellen (SLMs) mit nur 1,5 bis 7 Milliarden Parametern ermöglicht, bei mathematischen Aufgaben die Leistung von OpenAIs o1-preview zu erreichen oder sogar zu übertreffen.

Microsoft Research Asia stellt mit rStar-Math eine mehrstufige Trainingsmethode vor, mit der kleine Sprachmodelle (Small Language Models, SLMs) mit nur 1,5 bis 7 Milliarden Parametern die Leistung von OpenAIs o1-preview bei mathematischen Aufgaben erreichen oder sogar übertreffen können.

Der Artikel Mini-LLMs erreichen mit rStar-Math von Microsoft o1-Leistung bei Mathe-Aufgaben erschien zuerst auf THE-DECODER.de.