NVIDIAとMITがLightning OPDフレームワークを公開し、GPUメモリ問題を解消しながらモデル蒸留効率を4倍に向上

報道によると、NVIDIAとMITの研究者はLightning OPD(Offline On-Policy Distillation)をリリースした。これは、大規模言語モデル向けの新しいポストトレーニングの枠組みであり、学習中に教師モデルを常に稼働させ続ける必要をなくす。教師モデルの対数確率を事前にオフラインで計算しておくことで、この枠組みは学習効率を4倍に向上させ、同時にGPUリソースをすべて学生モデルの学習に割り当てられるようにする。

8基のNVIDIA H100 GPUでのテストでは、Lightning OPDはQwen3-30B-A3B-Base(パラメータ300億のMoEモデル)を正常に蒸留し、AIME 2024ベンチマークで71.0を達成した。これに対し、標準のOPDは同じハードウェア上でメモリ不足になった。より小型のQwen3-8Bモデルでは、この枠組みに69.9ポイントに到達するためのGPU時間としてわずか30時間しか必要としなかった。

免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は免責事項をご参照ください。
コメント
0/400
コメントなし