基于深度学习的自然语言处理pdf百度网盘下载地址?
本书重点介绍了神经网络模型在自然语言处理中的应用。首先介绍有监督的机器学习和前馈神经网络的基本知识,如何将机器学习方法应用在自然语言处理中,以及词向量表示(而不是符号表示)的应用。然后介绍更多专门的神经网络结构,包括一维卷积神经网络、循环神经网络、条件生成模型和基于注意力的模型。后,讨论树形网络、结构化预测以及多任务学习的前景。
作者简介:
Yoav Goldberg现就职于以色列巴伊兰大学,是自然语言处理领域一位非常活跃的青年学者。Goldberg博士期间的主要研究方向为依存句法分析,随着深度学习的兴起,他也将研究兴趣转移至此,并成功地将该技术应用于依存句法分析等任务。与此同时,他在理论上对词嵌入和传统矩阵分解方法的对比分析也具有广泛的影响力。另外,他还是DyNet深度学习库的主要开发者之一。
目录:
第1章引言
第2章学习基础与线性模型
第3章从线性模型到多层感知器
第4章前馈神经网络
第5章神经网络训练
第6章文本特征构造
第7章NLP特征的案例分析
第8章从文本特征到输入
第9章语言模型
第10章预训练的词表示
第11章使用词嵌入
第12章案例分析:一种用于句子意义推理的前馈结构
第13章n元语法探测器:卷积神经网络
第14章循环神经网络:序列和栈建模
第15章实际的循环神经网络结构
第16章通过循环网络建模
第17章条件生成
第18章用递归神经网络对树建模
第19章结构化输出预测
第20章级联、多任务与半监督学习
第21章结论
点击下载