💥 Gate 广场活动:#发帖赢代币CGN 💥
在 Gate 广场发布与 CGN、Launchpool 或 CandyDrop 相关的原创内容,即有机会瓜分 1,333 枚 CGN 奖励!
📅 活动时间:2025年10月24日 18:00 – 11月4日 24:00(UTC+8)
📌 相关详情:
Launchpool 👉 https://www.gate.com/zh/announcements/article/47771
CandyDrop 👉 https://www.gate.com/zh/announcements/article/47763
📌 参与方式:
1️⃣ 在 Gate 广场发布原创内容,主题需与 CGN 或相关活动(Launchpool / CandyDrop)相关;
2️⃣ 内容不少于 80 字;
3️⃣ 帖子添加话题:#发帖赢代币CGN
4️⃣ 附上任意活动参与截图
🏆 奖励设置(总奖池:1,333 CGN)
🥇 一等奖(1名):333 CGN
🥈 二等奖(2名):200 CGN / 人
🥉 三等奖(6名):100 CGN / 人
📄 注意事项:
内容必须原创,禁止抄袭;
获奖者需完成 Gate 广场身份认证;
活动最终解释权归 Gate 所有。
剑桥华人团队开源PandaGPT:首个横扫「六模态」的大型基础模型
来源:新智元
当下的大型语言模型,如ChatGPT只能接收文本作为输入,即便升级版的GPT-4也只是增加了图像输入的功能,无法处理其他模态的数据,如视频、音频等。
最近,来自剑桥大学、奈良先端科学技术大学院大学和腾讯的研究人员共同提出并开源了通用指令遵循模型PandaGPT模型,也是首个实现了跨六种模态(图像/视频、文本、音频、深度、thermal和IMU)执行指令遵循数据的基础模型。
代码链接:
在没有明确多模态监督的情况下,PandaGPT就展现出了强大的多模态能力,可以执行复杂的理解/推理任务,如详细的图像描述生成、编写视频启发的故事、回答有关音频的问题,或是多轮对话等。
示例
基于图片的问答:
多模态PandaGPT
和困在计算机内的AI模型相比,人类具有多种感官来了解世界,可以看一幅画,可以听到自然界的各种声音;机器如果也能输入多模态的信息,就可以更全面地解决各种问题。
目前多模态的研究大多数局限于单模态,或是文本与其他模态的组合,缺乏感知和理解多模态输入的整体性和互补性。
为了让PandaGPT具有多模态输入能力,研究人员结合了ImageBind的多模态编码器和大型语言模型Vicuna,二者在视觉和音频基础的指令遵循任务中都取得了非常强大的性能。
同时,为了使二个模型的特征空间一致,研究人员使用开源的16万个图像-语言指令遵循数据来训练PandaGPT,其中每个训练实例包括一个图像和一组多轮对话数据,对话中包含每轮人类的指令和系统的回复。
为了减少可训练参数的数量,研究人员只训练用来连接Vicuna的ImageBind表征,以及Vicuna的注意力模块上的额外LoRA权重。
值得注意的是,当前版本的PandaGPT只用对齐的图像-文本数据进行训练,但通过利用冻结的ImageBind编码器中继承的六种模态(图像/视频、文本、音频、深度、thermal和IMU)的绑定属性,PandaGPT展示出了涌现,即零样本跨模态的能力。
限制
尽管PandaGPT在处理多模态及模态组合方面有惊人的能力,但还有几种方法可以用来进一步改进PandaGPT:
PandaGPT的训练过程可以通过引入更多对齐数据来丰富,比如其他与文本匹配的模态(音频-文本)
研究人员对文本以外的模态内容只使用一个嵌入向量来表征,还需要对细粒度的特征提取畸形更多研究,如跨模态的注意力机制可能会对性能提升有好处
PandaGPT目前只是将多模态信息作为输入,未来可能会在生成端引入更丰富的多媒体内容,比如在音频中生成图像和文字回复。
还需要有新的基准来评估多模态输入的组合能力
PandaGPT也可以表现出现有语言模型的几个常见缺陷,包括幻觉、毒性和刻板印象。
研究人员也指出,PandaGPT目前还只是一个研究原型,不能直接用于现实世界的应用。
参考资料: