💥 Gate廣場活動: #PTB创作大赛# 💥
在 Gate廣場發布與 PTB、CandyDrop 第77期或 Launchpool 活動 相關的原創內容,即有機會瓜分 5,000 PTB 獎勵!
CandyDrop 第77期:CandyDrop x PTB 👉 https://www.gate.com/zh/announcements/article/46922
PTB Launchpool 火熱進行中: 👉https://www.gate.com/zh/announcements/article/46934
📅 活動時間:2025年9月10日 12:00 – 9月14日24:00 UTC +8
📌 參與方式:
發布原創內容,主題需與 PTB、CandyDrop 或 Launchpool 相關
內容不少於 80 字
帖子添加話題: #PTB创作大赛#
附上 CandyDrop 或 Launchpool 參與截圖
🏆 獎勵設置:
🥇 一等獎(1名):2,000 PTB
🥈 二等獎(3名):800 PTB/人
🥉 三等獎(2名):300 PTB/人
📄 注意事項:
內容必須原創,禁止抄襲或刷量
獲獎者需完成 Gate 廣場身分認證
活動最終解釋權歸 Gate 所有
谷歌開源Gemma-3:媲美DeepSeek,算力暴降
金十數據3月13日訊,昨晚,谷歌(GOOG.O)CEO Sundar Pichai宣佈,開源最新多模態大模型Gemma-3,主打低成本高性能。Gemma-3共有10億、40億、120億和270億四種參數。但即便最大的270億參數,只需要一張H100就能高效推理,同類模型要達到這個效果最少要提升10倍算力,也是目前最強小參數模型。根據盲測LMSYS ChatbotArena數據顯示,Gemma-3僅次於DeepSeek的R1-671B,高於OpenAI的o3-mini,Llama3-405B等知名模型。