谷歌 | 多任务学习,如何挑选有效的辅助任务?只需一个公式! 16
前言 说到多任务学习,大家都不陌生,不管是在学术界还是工业界都已经有了很多成熟的探索与应用。在理想的多任务学习中,各个任务对彼此应当是有益的,所有任务相互促进,从而达到超过单任务学习的效果。 但理想归理想,实际情况却并非如此。简单的把一堆任务堆积在一起往往会降低模型最终的性能,所以在多任务学习中,如何去有效地识别哪些任务在训练时结合在一起可以对彼此有益 成为了很关键的问题。 显而易见,我们可以直接...
前言 说到多任务学习,大家都不陌生,不管是在学术界还是工业界都已经有了很多成熟的探索与应用。在理想的多任务学习中,各个任务对彼此应当是有益的,所有任务相互促进,从而达到超过单任务学习的效果。 但理想归理想,实际情况却并非如此。简单的把一堆任务堆积在一起往往会降低模型最终的性能,所以在多任务学习中,如何去有效地识别哪些任务在训练时结合在一起可以对彼此有益 成为了很关键的问题。 显而易见,我们可以直接...
一个转角 事情是这样的,最近小夕在做NLP多任务学习相关的一些工作嘛,然后有一天,老大甩给小夕一篇paper NAACL2019 | AutoSeM: Automatic Task Selection and Mixing in Multi-Task Learning 诶?看起来很有意思的样子,辅助任务不用自己选啦?mix ratio不用手调了?上图上图!! 不过小夕最近大半年的时间里炼丹炼多了(...
推广返利