知行编程网知行编程网  2022-05-26 19:00 知行编程网 隐藏边栏 |   抢沙发  28 
文章评分 0 次,平均分 0.0

时至今日,深度学习领域有哪些值得追踪的前沿研究?

来自 | 知乎    编辑 | 深度学习这件小事
链接 | https://www.zhihu.com/question/385326992
本文仅供交流,如有侵权,请联系删除

   问题

时至今日,深度学习领域有哪些值得追踪的前沿研究?


   高质量回答


Zhanxing Zhu

北京大学 数学科学学院助理教授

https://www.zhihu.com/question/385326992/answer/1164005349


其实自从2018年三大佬靠深度学习拿了图灵奖之后,基本宣告深度学习容易解决的问题做的差不多了,这两年这个领域没有太大的突破,因为剩下的问题都是硬核问题,想要比较好的解决很困难,这个可以从这几年的顶会NeurIPS, ICML和 ICLR 可以看出来。我大体列一下自己认为值得 follow 的几个大方向。

1. 深入反思和理解深度学习的行为: Understanding deep learning, 包括理论和完整的实验分析。比如深度学习获得泛化能力的来源:数据、模型和训练算法技巧的分析;还有深度学习学到的特征表示究竟是什么,宽度、深度、跳连等究竟在 representation learning 上所起的作用;深度学习稳健性,包括对噪声变化、对结构变化、对对抗样本的稳健性;从不同视角建模深度学习等。

2. 新模型的构建方面,主要目的是希望深度学习满足某种性质或要求,比如可解释性强、可信能力强的模型的构建;比如具有因果推断能力的模型,这其实是个很重要的方向,深度学习很大的成功在于模式识别和函数拟合,其他能力很弱;比如小容量计算友好的模型等。

3. 新的数据场景或数据结构中的深度学习模型,比如semi-supervised, self-supervised或大家也称unsupervised, transfer learning ,meta-learning等。因为已有的深度学习的成功展现在大数据的有监督上,目前关于这些挑战场景上的理解还很少,虽然大家一顿猛发文章,本质是什么尚不清晰,尤其是背后的设计模型的核心 principle 是什么还是很模糊的。新的数据结构下的问题,典型代表是graph,大型 table及结构化的数据上。

4. Learning-enhanced algorithms,我自己起的名字,主要指如何利用数据驱动的方式,尤其是深度学习强大表达能力和灵活性,来解决一些传统算法的瓶颈问题,比如如何用learning的思路来解决一些组合问题中的搜索策略;如何从解决多个问题中总结数据或者问题的经验,来拓展到解决类似问题上。

5. 对应用友好的模型和算法,尤其是精细场景以及实际落地应用中。毕竟深度学习的很多问题是应用驱动的,如何更好的解决实际应用问题也极其关键。这里涉及很多,比如模型动态更新(包括类别,数据的分布变化,数据的异质,多模态等),快速部署(衍生很多加速算法等),便捷部署(衍生 automl),可视化,模块化等。

6. 还有一个是和硬件结合的方向,这个也很重要,自己不是很懂。
当然随着逐渐发展,还有不同新的有意思的新方向、新应用出现。不过最终深度学习这个框架和方法最终会像最小二乘法一样,被广泛应用,成为标准工具,但会不断的有新的东西能挖出来。

夕小瑶
机器学习 话题的优秀回答者
https://www.zhihu.com/question/385326992/answer/1141673234

我给可解释性问题投一票。

这个研究分支是唯一一个让我觉得,看不懂也想看,自己做不了也要偶尔延伸一些小实验验证一些小猜想,别人都说没意义但我觉得最有意义,虽然不会轻易写paper但是希望自己能坚持follow的一个研究方向。

回想起来自己读研的时候曾经很傻很冒险的一个人花了小半年的时间陷入在了一个现在看来非常扯淡的词向量迁移到分类模型时的训练行为和结果可解释性问题上,当时以为自己就要构建起一个比较naive的数学模型了,跑了五六个数据集去验证都发现模型预测出来的现象都与实际炼丹结果一致!

我相信根本没有人在乎这个问题的,简直感觉自己就是一个民科瞎搞的既视感。当时给 @Simon John看我的论文初稿时他觉得我疯了哈哈哈哈,最后我还是死缠烂打的求他给了很多建议,帮我完善了这么一篇扯淡文。

最后这篇paper经历也是非常搞笑,第一次投稿到某顶会后,唯一一个给了strong reject的审稿人却是对这篇工作评价最高的,大体意思就是,虽然哪里跟哪里的建模存在缺陷,但是这个工作非常有意思,也相信我们的大方向是对的,希望我们一定要把这个模型完善下去,千万不要放弃,非常期待看到后续进展巴拉巴拉之类的,巨煽情,差点把我看哭。

后来就是因为秋招的原因,急于让它出现在简历上,就转投了一个水会,果然水会就中了。。几个审稿人都没有发现那个建模的缺陷。但是想了想,这样放出去太不负责了,万一这个缺陷真的会导致全篇的建模都是错的,那就把后人误导死了,所以在收到accept邮件后的第二天又发了封邮件主动撤稿了。哎,还是再去试图修正一下那个问题吧。

最后的挣扎结果是,修复的过程中发现了新的问题,于是提出新的假设,检验新的补丁,最后发现没法收场了。最终搁置,投入秋招大业中。

再后来,出了elmo,出了bert,谁还会去关心w2v呢。这篇扯淡的工作也更加没有意义了。不过还好,有一天可以在知乎上作为故事写出来hhhh

虽然最后这件事情上0产出,但由衷感觉解开深度学习黑箱是很有挑战性但也非常有意思的事情。不建议一个人瞎搞,但建议持续追踪,黑盒的秘密很令人着迷呀

MrPhD
东南大学 控制工程硕士在读
https://www.zhihu.com/question/385326992/answer/1138155479

深度学习的解耦(Disentanglement,或者叫解纠缠)表示

推荐一些论文及资料:

  1. Probing Brain Activation Patterns by Dissociating Semantics and Syntax in Sentences, AAAI 2020
  2. Challenging Common Assumptions in the Unsupervised Learning of Disentangled Representations, ICML 2019
  3. Diverse Image-to-Image Translation via Disentangled Representations, ECCV 2018
  4. 大象:VAE系解纠缠:从VAE到βVAE,再到β-TCVAE:https://zhuanlan.zhihu.com/p/62312210

魏通
A lucky person ~
https://www.zhihu.com/question/385326992/answer/1141976198

斗胆投一下 semi-supervised learning & data augmentation. 毕竟有 Google 和辣个蓝人 (Quoc) 坐镇 lol,但看好不等于觉得它可以很快落地(雾...

最近两年,Google Research 出了一系列 semi-supervised learning 的工作(本质上也是探索了 Data augmentation 对 DNN 模型训练的正面影响),如:

  • Unsupervised Data Augmentation for Consistency Training

  • FixMatch: Simplifying Semi-Supervised Learning with Consistency and Confidence

  • MixMatch: A Holistic Approach to Semi-Supervised Learning


此外,Data Augmentation 的 paper 也有著名的:

  • AutoAugment: Learning Augmentation Policies from Data

  • SpecAugment: A Simple Data Augmentation Method for Automatic Speech Recognition


上面只列出了 Google 在改问题上部分代表性的 paper. 希望有更多的小伙伴关注 Deep Learning 在 semi-supervised learning 和 data augmentation 中的应用.

机智的叉烧
北京科技大学 统计学硕士
https://www.zhihu.com/question/385326992/answer/1141908138

做工程一段时间了,其实感觉很多东西还是要落地,这个研究才有意义。(当然也要包括领先上百年甚至更多的数学),从应用角度还是希望有一些东西能快速落地,快速解决问题(赚取KPI)更加平民化的落地会更好。

但是!

现在很多模型其实只考虑了准确率,而牺牲了很多东西(其实我的理解最终变成了一个比赛,大家都在刷数据),追高不是错,但是只追高就有问题了,一整套方法要考虑所有流程,配套设施的完整性,可用性,从我的实践角度看,深度学习目前在这些问题上应该说上升空间比较大,也有巨大的研究需求。主要是这么几点吧:

  • 模型压缩和蒸馏。这块感觉做得不太够,bert做出来,效果真的好,但训练本身只是有钱人的游戏,如何能把模型的体积降下来,耗时降下来,无论是训练侧还是推理侧,都有很大的价值。其实,Hinton大神在14年已经提出了蒸馏的概念,近期也有很多关于bert的压缩,比较火的albert,新鲜出炉的Fastbert,但是感觉下降到理想水平还有一段距离。

  • 样本依赖问题。绝大部分的优秀模型都依赖大量数据,其实很多人已经在这块尝试了很多方法降低这种依赖,然而其实做的人远远不如做模型的多,感觉工作很多能做但是出结果的似乎都不是很多,例如主动学习一查标杆文献基本都只有10年前后甚至更早的东西,博客谈的也只是科普(也不知道是不是我看的不够多)。
    • 主动学习,边学边调整样本,但是个人看似乎还是依赖人工打标。
    • 数据增强,通过特定规则增加一些数据,当然这些规则本身会带入过拟合信息。
    • 半监督、弱监督、无监督。个人感觉这块有一定收益吧。

  • 迁移学习、联邦学习、pre-training。谨慎的拿来注意,就问这么一个问题,所有的事情都得从零开始吗?从10开始然后做不香吗,github搬代码不香吗,能有一个地方能让自下载模型改吧改吧就完事,是不是很好,于是这些相关的思路,我们是有必要去发扬、优化的。

我一直觉得,各种模型不是目的,只是方法,能解决问题的方法,深度学习的确能够在很多领域带来提升,然而由于数据和一些工程上的压力,深度学习的使用范围被限制,那么其实如果我们能够扩大他的适用范围,突破他的限制,这个贡献是不是会比哪怕是特定领域提升几个点来的更加有意义?

<pre style="max-width: 100%;box-sizing: border-box !important;overflow-wrap: break-word !important;"><section style="margin-right: 8px;margin-left: 8px;max-width: 100%;letter-spacing: 0.544px;white-space: normal;color: rgb(0, 0, 0);font-family: -apple-system-font, system-ui, "Helvetica Neue", "PingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;widows: 1;line-height: 1.75em;box-sizing: border-box !important;overflow-wrap: break-word !important;"><strong style="max-width: 100%;box-sizing: border-box !important;overflow-wrap: break-word !important;"><span style="max-width: 100%;letter-spacing: 0.5px;font-size: 14px;box-sizing: border-box !important;overflow-wrap: break-word !important;"><strong style="max-width: 100%;font-size: 16px;letter-spacing: 0.544px;box-sizing: border-box !important;overflow-wrap: break-word !important;"><span style="max-width: 100%;letter-spacing: 0.5px;box-sizing: border-box !important;overflow-wrap: break-word !important;">—</span></strong>完<strong style="max-width: 100%;font-size: 16px;letter-spacing: 0.544px;box-sizing: border-box !important;overflow-wrap: break-word !important;"><span style="max-width: 100%;letter-spacing: 0.5px;font-size: 14px;box-sizing: border-box !important;overflow-wrap: break-word !important;"><strong style="max-width: 100%;font-size: 16px;letter-spacing: 0.544px;box-sizing: border-box !important;overflow-wrap: break-word !important;"><span style="max-width: 100%;letter-spacing: 0.5px;box-sizing: border-box !important;overflow-wrap: break-word !important;">—</span></strong></span></strong></span></strong></section><section style="max-width: 100%;letter-spacing: 0.544px;white-space: normal;font-family: -apple-system-font, system-ui, "Helvetica Neue", "PingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;widows: 1;box-sizing: border-box !important;overflow-wrap: break-word !important;"><section powered-by="xiumi.us" style="max-width: 100%;box-sizing: border-box !important;overflow-wrap: break-word !important;"><section style="margin-top: 15px;margin-bottom: 25px;max-width: 100%;opacity: 0.8;box-sizing: border-box !important;overflow-wrap: break-word !important;"><section style="max-width: 100%;box-sizing: border-box !important;overflow-wrap: break-word !important;"><section style="max-width: 100%;letter-spacing: 0.544px;box-sizing: border-box !important;overflow-wrap: break-word !important;"><section powered-by="xiumi.us" style="max-width: 100%;box-sizing: border-box !important;overflow-wrap: break-word !important;"><section style="margin-top: 15px;margin-bottom: 25px;max-width: 100%;opacity: 0.8;box-sizing: border-box !important;overflow-wrap: break-word !important;"><section style="max-width: 100%;box-sizing: border-box !important;overflow-wrap: break-word !important;"><section style="margin-right: 8px;margin-bottom: 15px;margin-left: 8px;padding-right: 0em;padding-left: 0em;max-width: 100%;color: rgb(127, 127, 127);font-size: 12px;font-family: sans-serif;line-height: 25.5938px;letter-spacing: 3px;box-sizing: border-box !important;overflow-wrap: break-word !important;"><span style="max-width: 100%;color: rgb(0, 0, 0);box-sizing: border-box !important;overflow-wrap: break-word !important;"><strong style="max-width: 100%;box-sizing: border-box !important;overflow-wrap: break-word !important;"><span style="max-width: 100%;font-size: 16px;font-family: 微软雅黑;caret-color: red;box-sizing: border-box !important;overflow-wrap: break-word !important;">为您推荐</span></strong></span></section><section style="margin: 5px 8px;padding-right: 0em;padding-left: 0em;max-width: 100%;min-height: 1em;font-family: sans-serif;letter-spacing: 0px;opacity: 0.8;line-height: normal;box-sizing: border-box !important;overflow-wrap: break-word !important;"><span style="font-size: 14px;">为什么魂斗罗只有128KB却可以实现那么长的剧情?</span><br style="max-width: 100%;box-sizing: border-box !important;overflow-wrap: break-word !important;"  /></section><section style="margin: 5px 8px;padding-right: 0em;padding-left: 0em;max-width: 100%;min-height: 1em;font-family: sans-serif;letter-spacing: 0px;opacity: 0.8;line-height: normal;box-sizing: border-box !important;overflow-wrap: break-word !important;"><span style="color: rgb(87, 107, 149);max-width: 100%;font-size: 14px;box-sizing: border-box !important;overflow-wrap: break-word !important;">MIT最新深度学习入门课,安排起来!</span></section><section style="margin: 5px 8px;padding-right: 0em;padding-left: 0em;max-width: 100%;min-height: 1em;font-family: sans-serif;letter-spacing: 0px;opacity: 0.8;line-height: normal;box-sizing: border-box !important;overflow-wrap: break-word !important;"><span style="color: rgb(87, 107, 149);max-width: 100%;font-size: 14px;box-sizing: border-box !important;overflow-wrap: break-word !important;">有了这个神器,轻松用 Python 写个 App</span></section><section style="margin: 5px 8px;padding-right: 0em;padding-left: 0em;max-width: 100%;min-height: 1em;font-family: sans-serif;letter-spacing: 0px;opacity: 0.8;line-height: normal;box-sizing: border-box !important;overflow-wrap: break-word !important;"><span style="color: rgb(87, 107, 149);max-width: 100%;font-size: 14px;box-sizing: border-box !important;overflow-wrap: break-word !important;">「最全」实至名归,NumPy 官方早有中文教程</span><br style="max-width: 100%;box-sizing: border-box !important;overflow-wrap: break-word !important;"  /></section><section style="margin: 5px 8px;padding-right: 0em;padding-left: 0em;max-width: 100%;min-height: 1em;font-family: sans-serif;letter-spacing: 0px;opacity: 0.8;line-height: normal;box-sizing: border-box !important;overflow-wrap: break-word !important;"><span style="color: rgb(87, 107, 149);max-width: 100%;font-size: 14px;box-sizing: border-box !important;overflow-wrap: break-word !important;">我为什么鼓励你读计算机领域的博士?</span></section><p style="margin-right: 8px;margin-bottom: 5px;margin-left: 8px;padding-right: 0em;padding-left: 0em;max-width: 100%;min-height: 1em;color: rgb(127, 127, 127);font-size: 12px;font-family: sans-serif;line-height: 1.75em;letter-spacing: 0px;box-sizing: border-box !important;overflow-wrap: break-word !important;"><br  /></p></section></section></section></section></section></section></section></section>

时至今日,深度学习领域有哪些值得追踪的前沿研究?

本篇文章来源于: 深度学习这件小事

本文为原创文章,版权归所有,欢迎分享本文,转载请保留出处!

知行编程网
知行编程网 关注:1    粉丝:1
这个人很懒,什么都没写

发表评论

表情 格式 链接 私密 签到
扫一扫二维码分享