课程介绍:
句法分析能帮助机器理解句子中的语义,是智能客服、问答系统的核心技术。本课程从PCFG、依存分析句法、语义依存三个角度讲解了句法分析并以代码落地。
自然语言处理(NLP)是计算机科学,人工智能,语言学关注计算机和人类(自然)语言之间的相互作用的领域。
课程截图:
〖课程目录〗:
- | └──5、《自然语言处理》第二期
- | | ├──03-第三章:1、2章答疑
- | | | └──第一周答疑.flv 85.58M
- | | ├──04-第四章:自然语言
- | | | ├──3.1 语言的进化:来自自然选择的社会协作.flv 20.40M
- | | | ├──3.2 语言的进化:语言游戏与摩斯密码.flv 13.31M
- | | | ├──3.3 语言与智能:信息熵.flv 15.22M
- | | | ├──3.4 语言与智能:交叉熵的定义.flv 21.51M
- | | | ├──3.5 语义的进化.flv 20.31M
- | | | ├──3.6 语言模型:语言概率.flv 7.07M
- | | | ├──3.7 词袋模型.flv 10.35M
- | | | └──3.8 二元语言模型:CR情感分析.flv 27.54M
- | | ├──05-第5章:语言模型和中文分词
- | | | ├──4.1 三元语言模型.flv 18.06M
- | | | ├──4.10 N-Gram模型.flv 3.34M
- | | | ├──4.11 Optimal Path 最优路径模型.flv 1.56M
- | | | ├──4.12 中文分词工具:Jieba.flv 8.40M
- | | | ├──4.2 语言模型评价:交叉熵.flv 8.43M
- | | | ├──4.3 语言模型评价:Perplexity(困惑度).flv 9.47M
- | | | ├──4.4 语言评价模型:Interpolation(插值法).flv 5.13M
- | | | ├──4.5 概率模型:垃圾邮件分类.flv 17.99M
- | | | ├──4.6 概率模型:拼写检查.flv 29.38M
- | | | ├──4.7 语音模型和机器翻译模型.flv 5.43M
- | | | ├──4.8 中文构词法.flv 13.87M
- | | | └──4.9 最大化匹配.flv 3.25M
- | | ├──06-第6章:第二周答疑
- | | | └──第二周答疑.flv 140.36M
- | | ├──07-第7章:语言技术-词表达和Word2Vec
- | | | ├──5.1 词表达.flv 6.30M
- | | | ├──5.10 Word2Vec-Part 3.flv 23.82M
- | | | ├──5.2 语义相似度.flv 12.01M
- | | | ├──5.3 TF-IDF权重处理.flv 5.17M
- | | | ├──5.4 One-Hot表达.flv 5.28M
- | | | ├──5.5 神经网络基础.flv 15.30M
- | | | ├──5.6 神经网络:反向传播 1.flv 9.05M
- | | | ├──5.7 神经网络:反向传播 2.flv 19.26M
- | | | ├──5.8 Word2Vec-Part 1.flv 21.52M
- | | | └──5.9 Word2Vec-Part 2.flv 25.45M
- | | ├──08-第8章:语言技术-词性
- | | | ├──6.1 什么是词性标注(POS Tagging).flv 7.61M
- | | | ├──6.10 混合模型详解5:隐马尔科夫模型.flv 21.36M
- | | | ├──6.2 词性标注的方法.flv 7.21M
- | | | ├──6.3 词性的标注类别和标注集.flv 9.38M
- | | | ├──6.4 规则标注和N-Gram方法.flv 6.02M
- | | | ├──6.5 从混合模型到HMM.flv 14.31M
- | | | ├──6.6 混合模型详解1:EM模型.flv 32.65M
- | | | ├──6.7 混合模型详解2:EM模型.flv 22.88M
- | | | ├──6.8 混合模型详解3:高斯混合模型.flv 16.78M
- | | | └──6.9 混合模型详解4:隐马尔可夫模型.flv 21.71M
- | | ├──09-第9章:第三周答疑
- | | | └──第三周答疑.flv 28.43M
- | | ├──10-第10章:语言技术-概率图模型
- | | | ├──7.1 概率图模型:贝叶斯网络(有向无环图).flv 8.31M
- | | | ├──7.2 概率图模型:分层图模型.flv 4.04M
- | | | ├──7.3 概率图模型:隐马尔科夫链.flv 3.68M
- | | | ├──7.4 隐马尔可夫模型的推导 1.flv 25.84M
- | | | ├──7.5 隐马尔科夫模型的推导 2.flv 25.88M
- | | | ├──7.6 隐马尔科夫模型的推导 3.flv 33.31M
- | | | ├──7.7 隐马尔科夫模型的推导 4.flv 29.12M
- | | | ├──7.8 PLSA主题模型1.flv 11.97M
- | | | └──7.9 PLSA主题模型 2.flv 11.25M
- | | ├──11-第11章:语言技术-文本与LDA主题模型
- | | | ├──8.1 向量表达和潜在语义索引(LSI).flv 6.56M
- | | | ├──8.10 实验报告:文本语义相似度.flv 5.83M
- | | | ├──8.11 延展实验:主题模型引入字词关系的实现.flv 15.36M
- | | | ├──8.12 实验总结.flv 5.26M
- | | | ├──8.2 LDA和狄利克雷分布.flv 17.13M
- | | | ├──8.3 LDA主题模型.flv 24.67M
- | | | ├──8.4 主题模型的深化与对比.flv 18.30M
- | | | ├──8.5 语义距离(Semantic Distance).flv 6.84M
- | | | ├──8.6 中文LDA模型:Word-base 和 Character-Base.flv 6.91M
- | | | ├──8.7 实验报告:困惑度(Perplexity).flv 3.48M
- | | | ├──8.8 实验报告:文本分类准确度.flv 8.13M
- | | | └──8.9 中英双语料库实验.flv 3.45M
- | | ├──12-第12章:第四周答疑
- | | | └──第四周答疑.flv 51.72M
- | | ├──13-第13章:语言技术-句法
- | | | ├──9.1 上下文无关句法(CFG)-Part 1.flv 31.42M
- | | | ├──9.2 上下文无关句法(CFG)-Part 2.flv 30.86M
- | | | ├──9.3 概率上下文无关句法(PCFG)- Part 1.flv 59.30M
- | | | ├──9.4 概率上下文无关句法(PCFG)-Part 2.flv 31.32M
- | | | └──9.5 概率上下文无关句法(PCGF)-Part 3.flv 43.95M
- | | ├──14-第14章:机器翻译
- | | | ├──10.1 机器翻译(Machine Translation)-Part 1.flv 15.03M
- | | | ├──10.2 机器翻译(Machine Translation)-Part 2.flv 18.25M
- | | | ├──10.3 机器翻译(Machine Translation)-Part 3.flv 37.06M
- | | | ├──10.4 机器翻译(Machine Translation)-Part 4.flv 26.51M
- | | | ├──10.5 机器翻译(Machine Translation)-Part 5.flv 34.76M
- | | | └──10.6 机器翻译(Machine Translation)-Part 6.flv 39.90M
- | | ├──15-第15章:第五周答疑
- | | | └──第五周答疑.flv 30.24M
- | | ├──16-第16章:卷积神经网络CNN
- | | | ├──11.1 神经元.flv 5.54M
- | | | ├──11.2 全连接网络及特性.flv 15.85M
- | | | ├──11.3 Auto-Encode 自编码器.flv 6.02M
- | | | ├──11.4 反向传播(BP).flv 33.44M
- | | | ├──11.5 卷积神经网络(CNN)的理解.flv 7.40M
- | | | ├──11.6 CNN的基本原理:卷积核、权重和池化.flv 11.27M
- | | | ├──11.7 CNN的计算过程.flv 13.47M
- | | | └──11.8 CNN如何应用在自然语言处理中.flv 15.92M
- | | ├──17-第17章:循环神经网络RNN
- | | | ├──12.1 循环神经网络的基本原理.flv 18.03M
- | | | ├──12.2 Elman Network和Jordan Networ.flv 2.64M
- | | | ├──12.3 LSTM的核心思想.flv 11.45M
- | | | ├──12.4 LSTM的分步实现详解.flv 17.15M
- | | | ├──12.5 Encoder-Decoder 框架.flv 15.26M
- | | | ├──12.6 Seq2Seq 模型.flv 24.49M
- | | | └──12.7 注意力机制(Attention Mechanism).flv 17.27M
- | | ├──18-第18章:第六周答疑
- | | | └──第六周答疑.flv 23.31M
- | | ├──资料
- | | | ├──01第一课:自然语言与数学之美.pdf 2.48M
- | | | ├──02第二课:基于机器学习方法的自然语言处理.pdf 3.54M
- | | | ├──03第三课:自然语言.pdf 2.83M
- | | | ├──03第三课资料 1.pdf 3.55M
- | | | ├──03第三课资料 2.pdf 142.06kb
- | | | ├──03第三课资料 3.pdf 362.29kb
- | | | ├──04第四课:语言模型.pdf 1.05M
- | | | ├──04第四课资料.pdf 1.01M
- | | | ├──05第五课课件(1).pdf 2.77M
- | | | ├──05第五课课件.pdf 2.77M
- | | | ├──06第六课课件.pdf 1.06M
- | | | ├──07第七课课件.pdf 1.61M
- | | | ├──第7课 note.pdf 732.79kb
- | | | ├──第六课 Note.pdf 1.26M
- | | | ├──第十三课 课件.pdf 14.26M
- | | | └──第十一课:循环神经网络.pdf 6.19M
- | | ├──01-第1章:自然语言与数学之美.rar 104.57M
- | | ├──02-第2章:基于机器学习方法的自然语言处理.rar 101.53M
- | | ├──19-第19章:注意力机制.rar 92.95M
- | | ├──20-第20章:广义模型(Universal Transformer).rar 70.50M
- | | ├──21-第21章:第七周答疑.rar 13.21M
- | | └──22-第22章:自然语言研究的未来方向.rar 93.80M
声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。