作者| yandexdataschool
编译|机器学习算法与自然语言处理 (禁止二次转载) 、小事
整理|忆臻
NLP资源
Yandex近日开放了内部的自然语言理解课程。
内容包括涵盖嵌入、sequence-to-sequence、注意力模型等一系列主题,
课程包含视频讲座,PPT,每周的jupyter的作业(colab友好)和大量的链接,非常具有实用性,所有资源都已经放入到github中。
课程表
第一周:嵌入(Embeddings)
讲座:Word embeddings。分布式语义、LSA、Word2Vec、GloVe。为什么以及何时需要它们。
研讨会:单词和句子嵌入。
第二周:文本分类
讲座:文本分类。经典的文本表示方法:BOW、TF-IDF。神经方法:嵌入、卷积、RNN
研讨会:使用卷积神经网络进行薪酬预测;;解释网络预测。
第三周:语言模型
讲座:语言模型:N-gram和神经方法; 可视化训练模型
研讨会:使用语言模型生成ArXiv论文
第四周:Seq2seq/Attention
讲座:Seq2seq: encoder-decoder 框架。注意力模型:Bahdanau模型。自注意力模型、Transformer。Pointer networks;用于分析的注意力模型。
研讨会:酒店和宿舍描述的机器翻译
第05周:结构学习
讲座:Structured Learning:结构感知器、结构预测、动态预言、RL基础知识。
研讨会:POS tagging
第六周:期望最大化(Expectation-Maximization)
讲座:期望最大化和单词对齐模型
研讨会:实现期望最大化
第07周:机器翻译
讲座:机器翻译:回顾PBMT的核心思想,过去3年基于NMT开发的应用程序,以及该领域的一些开放性问题。
研讨会:学生演讲
slides及作业一览
课程作业如下:
这份资料对于学习NLP的同学来说是一份不可多得的资源,赶紧行动起来吧!
资源地址
https://github.com/yandexdataschool/nlp_course
—完—
为您推荐
剁手一时爽?来个Super资源合集压压惊
漫话:如何给女朋友解释为什么双11无法修改收货地址
注意力机制(Attention)最新综述论文及相关源码
我就不信看完这篇你还搞不懂信息熵
本篇文章来源于: 深度学习这件小事
本文为原创文章,版权归知行编程网所有,欢迎分享本文,转载请保留出处!
你可能也喜欢
- ♥ 如何写出让同事无法维护的代码?04/02
- ♥ 博士生如何进行文献阅读和文献整理?05/21
- ♥ ICCV 2019论文投稿创纪录,比上届翻一番达4328篇03/18
- ♥ 目前最好用的大规模强化学习算法训练库是什么?06/01
- ♥ 什么是小样本学习?这篇综述文章用166篇参考文献告诉你答案05/29
- ♥ 计算机起源的数学思想07/24
内容反馈