京东 | AI人才联合培养计划

09/08 20:19
阅读数 0



01 京东AI项目实战教学


项目一、京东智能对话系统项目

项目简介:智能客服机器人已经成为了客服系统的重要组成部分,帮助人工客服提升工作效率,为企业降低人工成本。作为智能客服的行业先驱,京东多年来致力打造全链路的客服机器人,最大化提升商家的接待效率和用户体验。目前智能机器人的对话生成策略已经在“京小智”、“京东JIMI“等智能客服机器广泛应用,在用户购买商品的售前以及售后环节,为数千万用户以及数十万商家进行服务,为商家降本增效,为用户提升购物客服体验。


项目二、京东智能营销文本生成项目

项目简介:在京东零售场景,数百万的写作达人每天为商品创作卖点突出、风格多样的营销文案以促进用户下单,同时达人也会赚取佣金。但达人创业也会导致创作成本高、量产性差、质量参差不齐的问题。目前京东AI营销文案的人工审核通过率超过95%,并覆盖了全品类的商品。模型已成功应用于京东APP-发现好货,对话机器人京小智和搭配购等场景。


项目三、京东同类商品竞价搜索项目

项目简介:当商家上架或选择新品时,往往需要更全面了解产品性能参数等指标对比,为便于帮助商户的决策,京东提供了一款同类商品搜索功能产品;给定一个商品,它可以根据商品相关的信息去自动找到网上的同类商品。这里的一个难点在于,每一个商品在网上的标题、描述都有一些区别,所以定位到同一个商品本身具有一定的挑战。


京东NLP企业项目实战训练营
专注于培养行业TOP10%的NLP工程师

对课程有意向的同学

可扫描二维码咨询

👇👇👇



02 课程大纲

课程覆盖了从经典的 机器学习、文本处理技术、序列模型、深度学习、预训练模型、知识图谱、图神经网络 所有必要的技术, 30+项目案例 帮助你在实战中学习成长。 5个月时间博导级大咖全程辅导答疑、帮你告别疑难困惑。

第一部分:机器学习基础篇

第1章:自然语言处理概述

  • 什么是自然语言处理及现状和前景

  • 自然语言处理应用

  • 自然语言处理经典任务及技术

 

第2章:数据结构与算法基础

  • 时间复杂度、空间复杂度

  • 斐波那契数列的时间和空间复杂度

  • 动态规划算法

  • 经典的DP问题

 

第3章:机器学习基础 - 逻辑回归

  • 分类问题以及逻辑回归重要性

  • 逻辑回归的条件概率

  • 最大似然估计

  • 构建逻辑回归的目标函数

  • 优化与梯度下降法

  • 随机梯度下降法


第4章:机器学习基础 - 模型的泛化

  • 理解什么是过拟合

  • 如何防止过拟合现象

  • L1与L2正则

  • 交叉验证

  • L1正则与拉普拉斯分布

  • L2正则与高斯分布

 

第二部分:文本处理篇

 

第5章:分词、词的标准化、过滤

  • 文本分析流程

  • 中英文的分词

  • 最大匹配算法

  • 基于语言模型的分词

  • Stemming和Lemmazation

  • 停用词的使用

  • 拼写纠错问题

  • 编辑距离的实现

  • 暴力搜索法

  • 基于后验概率的纠错


第6章:文本的表示

  • 单词的独热编码表示

  • 句子的独热编码表示

  • tf-idf表示

  • 句子相似度比较

  • 独热编码下的单词语义相似度

  • 从独热编码到词向量

  • 词向量的可视化、句子向量


第7章:【项目作业】豆瓣电影评分预测

  • 数据描述以及任务

  • 中文分词

  • 独热编码、tf-idf

  • 分布式表示与Word2Vec

  • BERT向量

  • 句子向量

 

第8章:词向量技术

  • 独热编码表示的优缺点

  • 独热编码与分布式表示的比较

  • 静态词向量与动态词向量

  • 学习词向量 - 分布式假设

  • SkipGram与CBOW

  • SkipGram模型的目标

  • 负采样(Negative Sampling)

  • 基于矩阵分解的词向量学习

  • 基于Glove的词向量学习

  • 在非欧式空间中的词向量学习

 

第9章:【项目作业】智能客服问答系统

  • 问答系统和应用场景

  • 问答系统搭建流程

  • 文本的向量化表示

  • FastText

  • 倒排表技术

  • 问答系统中的召回、排序

 

第10章:语言模型

  • 语言模型的必要性

  • 马尔科夫假设

  • Unigram语言模型

  • Bigram、Trigram语言模型

  • 语言模型的评估

  • 语言模型的平滑技术


第三部分:自然语言处理与深度学习


第11章:深度学习基础

  • 理解神经网络

  • 各类常见的激活函数

  • 理解多层神经网络

  • 反向传播算法

  • 神经网络中的过拟合

  • 浅层模型与深层模型对比

  • 深度学习中的层次表示

 

第12章:Pytorch的使用

  • 环境安装

  • Pytorch与Numpy的语法比较

  • Pytorch中的Autograd用法

  • Pytorch的Forward函数


第13章:RNN与LSTM

  • 从HMM到RNN模型

  • RNN中的梯度问题

  • 解决梯度爆炸问题

  • 梯度消失与LSTM

  • LSTM到GRU

  • 双向LSTM模型

  • 基于LSTM的生成

  • 练习:利用Pytorch实现RNN/LSTM

 

第14章:Seq2Seq模型与注意力机制

  • Seq2Seq模型

  • Greedy Decoding

  • Beam Search

  • 长依赖所存在的问题

  • 注意力机制

  • 注意力机制的不同实现

 

第15章:【项目实战】京东智能营销文案生成

  • 构建Seq2Seq模型

  • Beam Search的改造

  • 模型调优

  • Length Normalization

  • Coverage Normalization

  • 评估标准 Rouge

  • Pointer-Generator Network

  • PGN与Seq2Seq的融合

 

第16章:动态词向量与ELMo技术

  • 基于上下文的词向量技术

  • 图像识别中的层次表示

  • 文本领域中的层次表示

  • 深度BI-LSTM

  • ELMo模型简介及优缺点

  • ELMo的训练与测试

 

第17章:自注意力机制与Transformer

  • 基于LSTM模型的缺点

  • Transformer结构概览

  • 理解自注意力机制

  • 位置信息的编码

  • 理解Encoder与Decoder区别

  • 理解Transformer的训练和预测

  • Transformer的缺点

 

第18章:BERT与ALBERT

  • 自编码器介绍

  • Transformer Encoder

  • Masked LM

  • BERT模型及其不同训练方式

  • ALBERT

 

第19章:【项目实战】京东智能客服系统项目

  • 对话系统的分类方法

  • 检索方式与生成方式

  • 对话系统架构

  • 意图识别分类器

  • 闲聊引擎的搭建

  • Transformer与BERT的使用


第20章:GPT与XLNet

  • Transformer Encoder回顾

  • GPT-1,GPT-2,GPT-3

  • ELMo的缺点

  • 语言模型下同时考虑上下文

  • Permutation LM

  • 双流自注意力机制

  • Transformer-XL

 

第四部分、信息抽取


第21章:命名实体识别与实体消歧

  • 信息抽取的应用和关键技术

  • 命名实体识别

  • NER识别常用技术

  • 实体消歧技术

  • 实体消歧常用技术

  • 实体统一技术

  • 指代消解

 

第22章:关系抽取

  • 关系抽取的应用

  • 基于规则的方法

  • 基于监督学习方法

  • Bootstrap方法

  • Distant Supervision方法

 

第23章:依存文法分析

  • 从语法分析到依存文法分析

  • 依存文法分析的应用

  • 使用依存文法分析

  • 基于图算法的依存文法分析

  • 基于Transtion-based的依存文法分析

  • 其他依存文法分析方法论

 

第24章:知识图谱

  • 知识图谱以及重要性

  • 知识图谱中的实体和关系

  • 利用非结构化数据构造知识图谱

  • 知识图谱的设计

 

第25章:【项目实战】京东同类商品竞价搜索项目

  • Entity Linking介绍

  • Entity Linking技术概览

  • 从商品描述、商品标题中抽取关键实体

  • 搭建商品知识图谱

  • 基于GNN学习商品的词嵌入

  • 商品的ranking以及相似度计算


第五部分:图神经网络以及其他前沿主题

 

第26章:模型的压缩

  • 模型压缩的必要性

  • 常见的模型压缩算法总览

  • 基于矩阵分解的压缩技术

  • 从BERT到ALBERT的压缩

  • 基于贝叶斯模型的压缩技术

  • 模型的量化

  • 模型的蒸馏方法

 

第27章:图神经网络

  • 卷积神经网络的回顾

  • 图神经网络发展历程

  • 图卷积神经网络(GCN)

  • GAT详解


京东NLP企业项目实战训练营
专注于培养行业TOP10%的NLP工程师

对课程有意向的同学

可扫描二维码咨询

👇👇👇



01 项目讲解&实战帮助


训练营最终的目的是帮助学员完成项目,理解项目中包含核心知识技能,训练营中会花大量的时间帮助学员理解项目以及所涉及到的实战讲解。


▲节选往期部分课程安排



02 最佳工程实战


来自京东智联云等业界专家来讲述工业界的最佳工程实战,如AI模型的部署、代码编写、模型的调参以及debug等技术。


▲源自京东智联云AI某模块架构图



03 专业的论文解读


作为AI工程师,阅读论文能力是必须要的。在课程里,我们会安排经典英文文章供学员阅读,之后由老师帮助解读。   

    

▲节选往期部分论文安排



04 代码解读&实战


对于核心的模型如BERT,XLNet都会精心安排代码解读和实战课,帮助学员深入理解其细节并有能力去实现。


▲BERT模型代码实战讲解



05 行业案例分享


训练营过程中会邀请合作的专家来分享行业案例以及技术解决方案,如知识图谱的搭建、保险领域的客服系统等。


▲专家分享

《Google YouTube 基于深度学习的视频推荐》

嘉宾简介:曾博士

计算机视觉,机器学习领域专家

先后在CVPR,ACMMM,TPAMI,SCI 期刊,EI 会议等发表超过30篇论文



06 日常社群答疑


为了帮助解决学员遇到的问题,专业助教会提供全天社群答疑服务。我们的助教均来来自于一线AI公司和国内外名校,扎实的理论和工业界应用也是我们选拔助教老师的重要标准,拒绝空谈理论。


▲社群内老师专业的解答



07 日常作业&讲解


为了巩固对一些核心知识点,学员除了大项目,也需要完成日常的小作业。之后助教会给出详细的解答。


▲课程学习中的小作业


 

课程适合哪些学员呐?


  • 大学生:

    • 计算机或者信息领域相关的本科/研究/博士生,毕业后希望从事AI相关的工作。

    • 希望在真实工业场景中磨炼技术,提升职场竞争力。

    • 毕业之后希望申请国内外名校的硕士或者博士。

  • 在职人士:

    • 具备良好的工程研发背景,希望从事AI相关的项目或者工作。

    • 从事AI工作,希望进一步提升NLP实战经验。

    • 从事NLP工作,希望深入了解模型机理。

    • AI developer, 希望突破技术瓶颈, 了解NLP前沿信息。 


入学标准:

1、 理工科专业相关本科生,硕士生或博士生或者IT领域的在职人士

2、具备很强的动手能力、熟练使用Python编程

3、具备良好的英文文献阅读能力,至少达到CET-4级水平


京东NLP企业项目实战训练营
专注于培养行业TOP10%的NLP工程师

对课程有意向的同学

可扫描二维码咨询

👇👇👇

本文分享自微信公众号 - 机器学习AI算法工程(datayx)。
如有侵权,请联系 support@oschina.cn 删除。
本文参与“OSC源创计划”,欢迎正在阅读的你也加入,一起分享。

展开阅读全文
打赏
0
0 收藏
分享
加载中
更多评论
打赏
0 评论
0 收藏
0
分享
返回顶部
顶部