LOADING

吴恩达团队新作:多模态多样本上下文学习,无需微调快速适应新任务

2024/06/19 机器之心
18

吴恩达团队新作:多模态多样本上下文学习,无需微调快速适应新任务

AIGC动态欢迎阅读

原标题:吴恩达团队新作:多模态多样本上下文学习,无需微调快速适应新任务
关键字:上下文,示例,模型,性能,数据
文章来源:机器之心
内容字数:0字

内容摘要:


AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com本研究评估了先进多模态基础模型在 10 个数据集上的多样本上下文学习,揭示了持续的性能提升。批量查询显著降低了每个示例的延迟和推理成本而不牺牲性能。这些发现表明:利用大量演示示例可以快速适应新任务和新领域,而无需传统的微调。论文地址:https://arxiv.org/abs/2405.09798
代码地址:https://github.com/stanfordmlgroup/ManyICL
背景介绍
在近期的多模态基础模型(Multimodal Foundation Model)研究中,上下文学习(In-Context Learning, ICL)已被证明是提高模型性能的有效方法之一。
然而,受限于基础模型的上下文长度,尤其是对于需要大量视觉 token 来


原文链接:吴恩达团队新作:多模态多样本上下文学习,无需微调快速适应新任务

联系作者

文章来源:机器之心
作者微信:almosthuman2014
作者简介:专业的人工智能媒体和产业服务平台