Talk预告|南开大学李政:视觉语言模型CLIP的提示学习方法研究|人工智能|clip|李政(跳水运动员)
时间:2025-01-22 13:28:26 点击:146 次
本期为TechBeat人工智能社区第632期线上Talk。北京时间10月24日(周四)20:00,南开大学博士生李政的Talk将准时在TechBeat人工智能社区开播!他与大家分享的主题 是:“视觉语言模型CLIP的提示学习方法研究”, 届时他 将 将围绕提示学习方法展开,介绍和梳理提示学习的相关方法,并详细讲解我们发表在CVPR 24的PromptKD和ECCV 24的CasPL两篇工作。Talk·信息主题:视觉语言模型CLIP的提示学习方法研究嘉宾:南开大学 · 博士生 - 李政时间:北京时间10月24日(周四)20:00地点:TechBeat人工智能社区Talk·介绍视觉语言模型CLIP因其出色的泛化性能受到了学术界与工业界广泛的关注,许多研究者尝试将其落地适配到下游任务或目标上,然而基于全参数的微调方法需要大量数据进行驱动,在数据有限的情况下难以获得良好的性能。如何高效的微调CLIP模型成为了一个关键问题。提示学习方法的出现给这个问题提供了一个很好的解决方案,其旨在CLIP模型中引入小部分的可学习参数进行训练,改变模型输出的表征,以达到适配下游任务的目标。本次talk将围绕提示学习方法展开,介绍和梳理提示学习的相关方法,并详细讲解我们发表在CVPR 24的PromptKD和ECCV 24的CasPL两篇工作。Talk大纲1. 什么是视觉语言模型CLIP和提示学习?2. 实验衡量指标是什么?3. 提示学习相关论文介绍和梳理4. 核心方法PromptKD和CasPL讲解5. 实验分析与常见问题解答Talk·预习资料课题组共同维护了一个关于视觉语言模型CLIP提示学习方法的详尽paper list供大家学习和参考,链接如下:https://github.com/zhengli97/Awesome-Prompt-Adapter-Learning-for-VLMs其中,这次talk会重点关注到以下论文:论文链接: https://arxiv.org/abs/2203.05557 代码链接: https://github.com/KaiyangZhou/CoOp论文链接: https://arxiv.org/abs/2109.01134 代码链接: https://github.com/KaiyangZhou/CoOp论文链接: https://arxiv.org/abs/2210.03117 代码链接: https://github.com/muzairkhattak/multimodal-prompt-learning论文链接: https://arxiv.org/abs/2307.06948 代码链接: https://github.com/muzairkhattak/PromptSRC论文链接: https://arxiv.org/abs/2403.02781 代码链接: https://github.com/zhengli97/PromptKD 中文论文解读: https://zhuanlan.zhihu.com/p/684269963论文链接: https://arxiv.org/abs/2409.17805 代码链接: https://github.com/megvii-research/CasPLTalk·提问交流在Talk界面下的【交流区】参与互动!留下你的打call和问题,和更多小伙伴们共同讨论,被讲者直接翻牌解答!你的每一次贡献,我们都会给予你相应的i豆积分,还会有惊喜奖励哦!Talk·嘉宾介绍李政南开大学 · 博士生李政,南开大学计算机学院PCA Lab三年级博士生,导师为李翔与杨健教授。主要研究方向为多模态学习和模型压缩,在CVPR/ICCV/ECCV/AAAI/TVCG等会议与期刊上发表多篇工作。个人主页: https://www.techbeat.net/grzytrkj?id=28926-The End-如果你也想成为讲者自荐 / 推荐单人Talk | 团队专场 | 录播or直播 | 闭门交流多种方式任你选择!推荐讲者成功也有奖励哦~关于TechBeat人工智能社区TechBeat(www.techbeat.net)隶属于将门创投,是一个荟聚全球华人AI精英的成长社区。我们希望为AI人才打造更专业的服务和体验,加速并陪伴其学习成长。期待这里可以成为你学习AI前沿知识的高地,分享自己最新工作的沃土,在AI进阶之路上的升级打怪的根据地!更多详细介绍>>预约本期Talk