1.95后博导张林峰在2019年提出了自蒸馏算法,成为知识蒸馏领域的代表性工作之一。
2.自蒸馏算法通过将大型模型的知识传递给小型模型,实现模型性能的优化与效率的提升。
3.张林峰的研究受到了越来越多的关注,他认为逻辑推理能力的强化学习以及大规模的MoE等方向具有研究价值。
4.除此之外,张林峰课题组在CVPR、ICLR、AAAI等顶会发表了多篇中稿,产量惊人。
5.张林峰表示,选择高校教职是因为热爱科研,喜欢与年轻同学们一起做有趣的事情。
以上内容由腾讯混元大模型生成,仅供参考
智源专访栏目意在展现行业顶尖技术研究者和创业者的研究经历和故事,记录技术世界的嬗变,激发当代AI从业者的创新思维,启迪认知、关注突破性进展,为行业注入灵感光芒。本次专访为总第25期。
简介
张林峰,毕业于清华大学。现任上海交通大学人工智能学院助理教授。研究方向为高效的人工智能,包括大模型、图像视频生成模型、人工智能数据集的压缩与加速等。2019年首次提出了自蒸馏算法,是知识蒸馏领域的代表性工作之一。曾获评微软学者、北京市优秀毕业生、清华大学优秀博士论文、清华大学启航奖金奖、清华大学蒋南翔奖学金等荣誉称号。
深耕知识蒸馏领域,学术首秀即代表作
图注:张林峰第一篇论文《Be Your Own Teacher: Improve the Performance of Convolutional Neural Networks via Self Distillation》,Google Scholar被引次量1084次(截止发稿前)
图注:张林峰与导师马恺声(图片来源:微信公众号“清华大学交叉信息研究院”)
图注:知识蒸馏示意图(图源网络:https://blog.csdn.net/weixin_43694096/article/details/127505946)
进入清华读博后,导师给予我充足时间调研研究方向。经过一到两个月的广泛探索,涵盖五六个主要方向及产业领域后,我认为轻量化方向意义重大且发展空间广阔,社会影响力强。在模型压缩方法中,知识蒸馏研究的“学生向老师学习”的概念让我觉得很有趣,我对此十分感兴趣,此后也持续专注于知识蒸馏领域的研究。
CVPR 满分论文背后,
从模型压缩到数据集压缩的高效AI路线图
Q4:2023年ChatGPT诞生,国内外的各类大模型也纷纷上线,这个趋势对您的研究有影响吗?近期DeepSeek的爆火对您的研究有何影响?
图注:上海交通大学人工智能学院张林峰实验室成员,现在2025年课题组招生工作正在进行中
图注:张林峰和同学们交流(图片来源:微信公众号“清华大学交叉信息研究院”)