用同一个模型能解决很多任务

 

knowledge retention

在task1上训练的model,在用于task2的训练后,发现在task1上的performance就下降了

让在新任务上学习到的参数,使得其与之前任务上得到的参数的距离不是很远,每个参数都有一个b来控制它的重要程度

 

knowledge transfer

 

model expansion

 

 

 

Logo

汇聚全球AI编程工具,助力开发者即刻编程。

更多推荐