领域介绍
自然语言处理是人工智能的关键分支,它致力于赋予计算机理解、生成和有效处理人类语言的能力,从而架起人机之间无缝沟通的桥梁。其核心研究与应用领域主要涵盖:
- 自然语言理解
- 让机器理解单词:词向量化 (Word2Vec)
- 让机器理解句子结构:依存句法分析 (Dependency Parsing)
- 自然语言生成:语言模型 (Language Model)
学习资源
1. CS224N: Natural Language Processing
课程简介
- 所属大学:Stanford
- 先修要求:深度学习基础 + Python
- 编程语言:Python
- 课程难度:🌟🌟🌟🌟
- 预计学时:80 小时
Stanford 的 NLP 入门课程,由自然语言处理领域的巨佬 Chris Manning 领衔教授。内容覆盖了词向量、RNN、LSTM、Seq2Seq 模型、机器翻译、注意力机制、Transformer 等等 NLP 领域的核心知识点。
5 个编程作业难度循序渐进,分别是词向量、word2vec 算法、Dependency parsing、机器翻译以及 Transformer 的 fine-tune。
最终的大作业是在 Stanford 著名的 SQuAD 数据集上训练 QA 模型,有学生的大作业甚至直接发表了顶会论文。
课程资源
- 课程网站:http://web.stanford.edu/class/cs224n/index.html
- 课程视频:B 站搜索 CS224n
- 课程教材:无
- 课程作业:http://web.stanford.edu/class/cs224n/index.html,5 个编程作业 + 1 个 Final Project