💥 Gate广场活动: #PTB创作大赛# 💥
在 Gate广场发布与 PTB、CandyDrop 第77期或 Launchpool 活动 相关的原创内容,即有机会瓜分 5,000 PTB 奖励!
CandyDrop 第77期:CandyDrop x PTB 👉 https://www.gate.com/zh/announcements/article/46922
PTB Launchpool 火热进行中: 👉https://www.gate.com/zh/announcements/article/46934
📅 活动时间:2025年9月10日 12:00 – 9月14日24:00 UTC +8
📌 参与方式:
发布原创内容,主题需与 PTB、CandyDrop 或 Launchpool 相关
内容不少于 80 字
帖子添加话题: #PTB创作大赛#
附上 CandyDrop 或 Launchpool 参与截图
🏆 奖励设置:
🥇 一等奖(1名):2,000 PTB
🥈 二等奖(3名):800 PTB/人
🥉 三等奖(2名):300 PTB/人
📄 注意事项:
内容必须原创,禁止抄袭或刷量
获奖者需完成 Gate 广场身份认证
活动最终解释权归 Gate 所有
字节跳动与中科大联合提出多模态文档大模型 DocPedia
字节跳动与中国科学技术大学合作研发的多模态文档大模型 DocPedia 已成功突破了分辨率的极限,达到了 2560×2560 的高分辨率,而目前业内先进多模态大模型如 LLaVA、MiniGPT-4 等处理图像分辨率上限为 336×336,无法解析高分辨率的文档图像。这一成果是通过研究团队采用了一种新的方法,解决了现有模型在解析高分辨文档图像方面的不足。
据称,DocPedia 不仅能准确识别图像信息,还能结合用户需求调用知识库回答问题,展现高分辨率多模态文档理解的能力。