自然语言处理算法工程师课程介绍:
自然语言处理(Natural Language Processing,NLP)主要用于解决文本自动分类、文本重要信息自动提取、数据挖掘、推荐系统、文本自动生成、对话机器人、知识图谱等领域。用以解决人类对文本信息分析与理解的自动化,本课程主要涉及经典人工智能方法、机器学习与深度学习。
适合人群:想要从事自然语言处理,以深度学习为基础的自然语言处理的学生、算法及工程从业人员
对标岗位:机器学习、深度学习、对话系统、知识图谱等
课程目录:
┣━━01.视频 [15.4G] ┃ ┣━━01-核心能力提升班自然语言处理方向 [4.6G] ┃ ┃ ┣━━1.1 语言模型与语法树 [299.5M] ┃ ┃ ┃ ┗━━1-语言模型与语法树.mp4 [299.5M] ┃ ┃ ┣━━2.1 爬虫、搜索引擎与 自动路径决策 [424.3M] ┃ ┃ ┃ ┗━━2-爬虫、搜索引擎与自动路径决策.mp4 [424.3M] ┃ ┃ ┣━━3.1 动态规划与编辑距离 [359.4M] ┃ ┃ ┃ ┗━━3-动态规划与编辑距离.mp4 [359.4M] ┃ ┃ ┣━━4.1 自然语言理解初步 [445.7M] ┃ ┃ ┃ ┗━━4-自然语言理解初步.mp4 [445.7M] ┃ ┃ ┣━━5.1 经典机器学习一 [270.8M] ┃ ┃ ┃ ┗━━5-经典机器学习一.mp4 [270.8M] ┃ ┃ ┣━━6.1 深度学习 [235.7M] ┃ ┃ ┃ ┗━━6-深度学习.mp4 [235.7M] ┃ ┃ ┣━━7.1 经典机器学习二 [277.1M] ┃ ┃ ┃ ┗━━7-经典机器学习二.mp4 [277.1M] ┃ ┃ ┣━━8.1 经典机器学习三:非监督、 半监督、主动学习 [284.2M] ┃ ┃ ┃ ┗━━8-经典机器学习三:非监督、半监督、主动学习.mp4 [284.2M] ┃ ┃ ┣━━9.1 word2vec [327.3M] ┃ ┃ ┃ ┗━━9-word2vec.mp4 [327.3M] ┃ ┃ ┣━━10.1 CNN卷积神经网络 [321.5M] ┃ ┃ ┃ ┗━━10-CNN卷积神经网络.mp4 [321.5M] ┃ ┃ ┣━━11.1 RNN循环神经网络 [330.7M] ┃ ┃ ┃ ┗━━11-RNN循环神经网络.mp4 [330.7M] ┃ ┃ ┣━━12.1 Transformer与BERT,大规模预训练问题 [362.7M] ┃ ┃ ┃ ┗━━12-Transformer与BERT,大规模预训练问题.mp4 [362.7M] ┃ ┃ ┣━━13.1 面向服务的智能客户机器人与新闻自动摘要生成 [321.5M] ┃ ┃ ┃ ┗━━13-面向服务的智能客户机器人与新闻自动摘要生成.mp4 [321.5M] ┃ ┃ ┗━━14.1 高级人工智能知识 [412.1M] ┃ ┃ ┗━━14-高级人工智能知识.mp4 [412.1M] ┃ ┣━━02-导师制名企实训班自然语言处理方向004期-项目一 [3.2G] ┃ ┃ ┣━━1.1 项目导论与中文 词向量实践 [327.7M] ┃ ┃ ┃ ┗━━项目导论与中文词向量实践.mp4 [327.7M] ┃ ┃ ┣━━2.1 基于Seq2Seq架构的模型搭建 [384.6M] ┃ ┃ ┃ ┗━━2.1 基于Seq2Seq架构的模型搭建.mp4 [384.6M] ┃ ┃ ┣━━3.1 NLG过程的优化与项目Inference [539.2M] ┃ ┃ ┃ ┗━━3.1 NLG过程的优化与项目Inference.mp4 [539.2M] ┃ ┃ ┣━━4.1 OOV和Word-repetition问题的改进 [379.9M] ┃ ┃ ┃ ┗━━4.1 OOV和Word-repetition问题的改进.mp4 [379.9M] ┃ ┃ ┣━━5.1 基于Transformer特征提取器的改进 [469.5M] ┃ ┃ ┃ ┗━━5.1 基于Transformer特征提取器的改进.mp4 [469.5M] ┃ ┃ ┣━━6.1 BERT在抽取式任务中的效果 [451.5M] ┃ ┃ ┃ ┗━━6.1 BERT在抽取式任务中的效果.mp4 [451.5M] ┃ ┃ ┣━━7.1 预训练模型在摘要任务中的改进 [349.7M] ┃ ┃ ┃ ┗━━7.1 预训练模型在摘要任务中的改进.mp4 [349.7M] ┃ ┃ ┗━━8.1 项目总结与回顾 [329.1M] ┃ ┃ ┗━━8.1 项目总结与回顾.mp4 [329.1M] ┃ ┣━━03-基于大规模预训练模型的机器阅读理解-项目二 [2.8G] ┃ ┃ ┣━━1.1 机器阅读理解发展及任务解析 [306M] ┃ ┃ ┃ ┗━━1-机器阅读理解发展及任务解析.mp4 [306M] ┃ ┃ ┣━━2.1 常见机器阅读理解模型(一) [307.8M] ┃ ┃ ┃ ┗━━2-常见机器阅读理解模型(一).mp4 [307.8M] ┃ ┃ ┣━━3.1 常见机器阅读理解模型(二) [335.6M] ┃ ┃ ┃ ┗━━3-常见机器阅读理解模型(二).mp4 [335.6M] ┃ ┃ ┣━━4.1 BERT与机器阅读理解 [435.5M] ┃ ┃ ┃ ┗━━4-BERT与机器阅读理解.mp4 [435.5M] ┃ ┃ ┣━━5.1 BERT的模型变体 [316M] ┃ ┃ ┃ ┗━━5-BERT的模型变体.mp4 [316M] ┃ ┃ ┣━━6.1 其它阅读理解相关模型 [372.9M] ┃ ┃ ┃ ┗━━6-其它阅读理解相关模型.mp4 [372.9M] ┃ ┃ ┣━━7.1 模型集成与部署 [385.4M] ┃ ┃ ┃ ┗━━7-模型集成与部署.mp4 [385.4M] ┃ ┃ ┗━━8.1 项目总结 [438.7M] ┃ ┃ ┗━━8-项目总结.mp4 [438.7M] ┃ ┗━━04-企业级任务型对话机器人-项目三 [4.8G] ┃ ┣━━1.1 智能对话系统导论 [467M] ┃ ┃ ┗━━1-智能对话系统导论.mp4 [467M] ┃ ┣━━2.1 使用 RASA 制作你的第一个对话机器人 [543.5M] ┃ ┃ ┗━━2-使用RASA制作你的第一个对话机器人.mp4 [543.5M] ┃ ┣━━3.1 深入 RASA 源码和定制化你的对话机器人 [800.7M] ┃ ┃ ┗━━3-深入RASA源码和定制化你的对话机器人.mp4 [800.7M] ┃ ┣━━4.1 代码课-基于 rasa 做 KBQA [492.1M] ┃ ┃ ┗━━4-代码课-基于rasa做KBQA.mp4 [492.1M] ┃ ┣━━5.1 自然语言理解(NLU) [442.3M] ┃ ┃ ┗━━5-自然语言理解(NLU).mp4 [442.3M] ┃ ┣━━6.1 HuggingFace’s Transformer和基于规则的对话状态跟踪 [449.7M] ┃ ┃ ┗━━6-HuggingFacesTransformer和基于规则的对话状态跟踪.mp4 [449.7M] ┃ ┣━━7.1 基于模型的对话跟踪和基于规则的Dialogue Policy [524.3M] ┃ ┃ ┗━━7-基于模型的对话跟踪和基于规则的DialoguePolicy.mp4 [524.3M] ┃ ┣━━8.1 代码课-NLU 和 DST 联合建模方法 [413.2M] ┃ ┃ ┗━━8-代码课-NLU和DST联合建模方法.mp4 [413.2M] ┃ ┣━━9.1 基于模版的对话生成和有限状态机(FSM) [459.3M] ┃ ┃ ┗━━9-基于模版的对话生成和有限状态机(FSM).mp4 [459.3M] ┃ ┗━━10.1 端到端的对话系统和智能对话系统在工业中 [335.3M] ┃ ┗━━10-端到端的对话系统和智能对话系统在工业中.mp4 [335.3M]