広場
最新
注目
ニュース
プロフィール
ポスト
Gateアプリをダウンロードするにはスキャンしてください
その他のダウンロードオプション
今日はこれ以上表示しない
CoinProphet_ETH
2025-09-08 05:50:51
フォロー
【機械学習エンジニアのための強化学習】
小さな3Bパラメータモデル(Qwen2.5-3B)がRLで訓練されることで、はるかに大きな最前線モデル(Claude-3.5-Sonnet、GPT-4o)を上回り、MLエンジニアリングタスクで22%の平均を達成できることを示します。
GPT
8.04%
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については
免責事項
をご覧ください。
14 いいね
報酬
14
7
リポスト
共有
コメント
0/400
コメント
screenshot_gains
· 09-08 06:20
小さなモデルが大きなモデルに一教えを与える
原文表示
返信
0
0xDreamChaser
· 09-08 06:20
ちょっと雰囲気が出てきた
原文表示
返信
0
CryingOldWallet
· 09-08 06:18
何もできず、競争では一番
原文表示
返信
0
RuntimeError
· 09-08 06:14
小さなモデルが大きなモデルを圧倒する 666
原文表示
返信
0
GasFeeBeggar
· 09-08 06:14
小モデルが大モデルを叩きつける?強気だね
原文表示
返信
0
ZKSherlock
· 09-08 05:57
実際、計算リソースの非常に優雅な最適化ですが... プライバシーへの影響は注意が必要です
原文表示
返信
0
BlockchainGriller
· 09-08 05:55
小さいモデルが大きいモデルを倒したの?
原文表示
返信
0
トピック
#
Double Rewards With GUSD
3k 人気度
#
DOGE ETF Launch
5k 人気度
#
My Top AI Coin
23k 人気度
#
Gate Alpha New Listings
49k 人気度
#
Altcoin Market Rebound
34k 人気度
ピン
サイトマップ
【機械学習エンジニアのための強化学習】
小さな3Bパラメータモデル(Qwen2.5-3B)がRLで訓練されることで、はるかに大きな最前線モデル(Claude-3.5-Sonnet、GPT-4o)を上回り、MLエンジニアリングタスクで22%の平均を達成できることを示します。