Meta-learning
元学习(Meta-learning)
元学习,顾名思义,就是学习如何学习。传统的机器学习方法通常需要大量的数据和时间来训练模型,而元学习旨在通过少量的数据和快速的适应能力,使模型能够更高效地学习新任务。
MAML(Model-Agnostic Meta-Learning)详解
一句话版(先记住这个)
MAML = 学一个“参数初始化”,使模型在遇到新任务时,只需极少步梯度下降就能学好。
关键词:
- 学的不是最终模型
- 学的是 初始化
- 目标是 快速适应新任务
一、为什么需要 MAML?(直觉)
我们经常面对一族相关任务,例如:
- 不同但相似的分类任务
- 多个强化学习环境
- 不同类型的数学题、推理任务
传统方法的问题:
- 每个任务重新训练,成本高
- 训练一个统一模型,泛化能力有限
我们真正想要的是:
来一个新任务,只需要少量数据和少量梯度更新就能学好
这就是 Meta-Learning(学会学习) 的核心动机。
All articles on this blog are licensed under CC BY-NC-SA 4.0 unless otherwise stated.