文档章节

机器学习中的End-to-End到底是怎么回事?

火力全開
 火力全開
发布于 2018/12/19 18:12
字数 3567
阅读 10
收藏 0
CTC

简单讲就是,Input--->系统(这里指神经网络)--->Output(直接给出输入,NN神经网络就给出结果,一气喝成!!!)

借用一段对话:(http://dy.163.com/v2/article/detail/C3J6F2NJ0511AQHO.html)

  机器之心:那你现在最主要的兴趣是在视觉和在语言处理这方面的这个方向吗?

  田渊栋:这些方向都会有涉及。但现在时代不同了,不应该把自己限制在视觉或者某个特定方向。

  机器之心:不是一个专门的应用。

  田渊栋:对,因为感觉上自然语言处理、图像、语音,这些基本上都是应用了。所以说如果必要的话,其实可以在这个中间进行切换,或者做一些交叉的方向。以前做这三个方向,可能需要大量的领域知识,特别是做自然语言处理,要学以前语言学的文献。要做分词,比如说每个词给一些词性。要做一些语法的分析、语素的分析,有很多很多的步骤。但现在的趋势是从头到尾都让机器学。

  机器之心:就是他们说的 end-to-end。

  田渊栋:是的,end-to-end 端对端的学习。比如说自然语言这一块,并没有比以前的效果好太多,但整个流程变得很简单方便,将来进步的速度可能就会变快。比如机器翻译里面,你把一个句子,直接通过神经网络翻译成另外一个语言的句子,这样就比以前快。以前可能要分词呀,词性标注呀,对每个词找到另外一个语言对应的词或者词组,找到之后再重新排列一下,最后才产生一个句子。要通过几个步骤,但是现在在概念上,只要一步就算出来。【注:现在基于神经网络的翻译系统确实比以前好很多了 】。

  为什么会出现端对端呢?我觉得主要是因为神经网络这个模型的优点。神经网络模型是个非常灵活可扩充的模型,随便连一下,然后做后向传递就可以了。大家一开始没有意识到它的厉害,觉得做这个系统得要分几步吧,神经网络只是其中一步,前面和后面还是通过传统方式来做比较安全。后来大家就慢慢意识到,为什么不用神经网络把整个系统打通?那样的话,又省时效果也会更好。自然而然,大家都会思考端对端的思路。我觉得现在基本上端对端的效果,主要体现在整个迭代的速度上,从设计模型到训练,到看到结果,到修改模型这样一个循环的速度会很快,效果也通常会变得更好。人优化参数的时候,可能半小时优化一次,看看结果如何;机器优化参数,可能一秒就优化几百次。所以这个时间的改进是数量级上的改进。

  数据集的获得,现在主要是在网上花钱,人工标注。比如说一张图几块钱的,然后让人去做。就发动群众的力量嘛,看大家有没有空。有空闲着无聊了,就标注两张。这样把力量汇集起来。

 

 

来源:知乎
著作权归作者所有。

讨论:

张旭--------------------------------->

 

端到端指的是输入是原始数据,输出是最后的结果,原来输入端不是直接的原始数据,而是在原始数据中提取的特征,这一点在图像问题上尤为突出,因为图像像素数太多,数据维度高,会产生维度灾难,所以原来一个思路是手工提取图像的一些关键特征,这实际就是就一个降维的过程。
那么问题来了,特征怎么提?
特征提取的好坏异常关键,甚至比学习算法还重要,举个例子,对一系列人的数据分类,分类结果是性别,如果你提取的特征是头发的颜色,无论分类算法如何,分类效果都不会好,如果你提取的特征是头发的长短,这个特征就会好很多,但是还是会有错误,如果你提取了一个超强特征,比如染色体的数据,那你的分类基本就不会错了。
这就意味着,特征需要足够的经验去设计,这在数据量越来越大的情况下也越来越困难。
于是就出现了端到端网络,特征可以自己去学习,所以特征提取这一步也就融入到算法当中,不需要人来干预了。

 

YJango---------------------------->

 


经典机器学习方式是以人类的先验知识将raw数据预处理成feature,然后对feature进行分类。分类结果十分取决于feature的好坏。所以过去的机器学习专家将大部分时间花费在设计feature上。那时的机器学习有个更合适的名字叫feature engineering 。

后来人们发现,利用神经网络,让网络自己学习如何抓取feature效果更佳。于是兴起了representation learning。这种方式对数据的拟合更加灵活。

网络进一步加深,多层次概念的representation learning将识别率达到了另一个新高度。于是你听到了是个搞机器学习的人都知道的名字:deep learning。实指多层次的特征提取器与识别器统一训练和预测的网络。

end to end的好处:通过缩减人工预处理和后续处理,尽可能使模型从原始输入到最终输出,给模型更多可以根据数据自动调节的空间,增加模型的整体契合度。

拿语音识别为具体实例。普遍方法是将语音信号转成频域信号,并可以进一步加工成符合人耳特点的MFCC进行编码(encode)。也可以选择Convolutional layers对频谱图进行特征抓取。这样可在encode的部分更接近end to end 中的第一个end。

但识别出的结果并不可以告诉我们这段语音到底是什么。DNN-HMM混合模型还需要将DNN识别出的结果通过HMM来解码(decode)。而RNN-CTC就将HMM的对齐工作交给了网络的output layer来实现。在decode的部分更接近end to end 中的第二个end。

 

王赟---------------------------->

我的理解跟@YJango 不太一样。我就在语音识别的范围内说说我的理解吧。

传统的语音识别系统,是由许多个模块组成的,包括声学模型、发音词典、语言模型。其中声学模型和语言模型是需要训练的。这些模块的训练一般都是独立进行的,各有各的目标函数,比如声学模型的训练目标是最大化训练语音的概率,语言模型的训练目标是最小化 perplexity。由于各个模块在训练时不能互相取长补短,训练的目标函数又与系统整体的性能指标(一般是词错误率 WER)有偏差,这样训练出的网络往往达不到最优性能。

针对这个问题,一般有两种解决方案:

  • 端到端训练(end-to-end training):一般指的是在训练好语言模型后,将声学模型和语言模型接在一起,以 WER 或它的一种近似为目标函数去训练声学模型。由于训练声学模型时要计算系统整体的输出,所以称为「端到端」训练。可以看出这种方法并没有彻底解决问题,因为语言模型还是独立训练的。
  • 端到端模型(end-to-end models):系统中不再有独立的声学模型、发音词典、语言模型等模块,而是从输入端(语音波形或特征序列)到输出端(单词或字符序列)直接用一个神经网络相连,让这个神经网络来承担原先所有模块的功能。典型的代表如使用 CTC 的 EESEN [1]、使用注意力机制的 Listen, Attend and Spell [2]。这种模型非常简洁,但灵活性就差一些:一般来说用于训练语言模型的文本数据比较容易大量获取,但不与语音配对的文本数据无法用于训练端到端的模型。因此,端到端模型也常常再外接一个语言模型,用于在解码时调整候选输出的排名(rescoring),如 [1]。

「端到端训练」和「端到端模型」的区分,在 [2] 的 introduction 部分有比较好的论述。

与 @YJango 的答案不同,我觉得「输入是语音波形(raw waveform)」并不是端到端模型的本质特征,端到端模型的输入也可以是特征序列(MFCC 等)。端到端模型的本质特征是把声学模型、发音词典、语言模型这些传统模块融合在一起。

参考文献:
[1] Yajie Miao, Mohammad Gowayyed, and Florian Metze, "EESEN: End-to-End Speech Recognition using Deep RNN Models and WFST-based Decoding," in Proc. ASRU 2015.
[2] William Chan, et al. "Listen, attend and spell: A neural network for large vocabulary conversational speech recognition," in Proc. ICASSP 2016.

 

陈永志-------------->
 

我从目标检测角度来说说我对end-to-end的理解。

非end-to-end方法:
目前目标检测领域,效果最好,影响力最大的还是RCNN那一套框架,这种方法需要先在图像中提取可能含有目标的候选框(region proposal), 然后将这些候选框输入到CNN模型,让CNN判断候选框中是否真的有目标,以及目标的类别是什么。在我们看到的结果中,往往是类似与下图这种,在整幅图中用矩形框标记目标的位置和大小,并且告诉我们框中的物体是什么。
这种标记的过程,其实是有两部分组成,一是目标所在位置及大小,二是目标的类别。在整个算法中,目标位置和大小其实是包含在region proposal的过程里,而类别的判定则是在CNN中来判定的。这种标记的过程,其实是有两部分组成,一是目标所在位置及大小,二是目标的类别。在整个算法中,目标位置和大小其实是包含在region proposal的过程里,而类别的判定则是在CNN中来判定的。

end-to-end方法:
end-to-end方法的典型代表就是有名的yolo。前面的方法中,CNN本质的作用还是用来分类,定位的功能其并没有做到。而yolo这种方法就是只通过CNN网络,就能够实现目标的定位和识别。也就是原始图像输入到CNN网络中,直接输出图像中所有目标的位置和目标的类别。这种方法就是end-to-end(端对端)的方法,一端输入我的原始图像,一端输出我想得到的结果。只关心输入和输出,中间的步骤全部都不管。

 

杨楠---------------------->

 

end-end在不同应用场景下有不同的具体诠释,对于视觉领域而言,end-end一词多用于基于视觉的机器控制方面,具体表现是,神经网络的输入为原始图片,神经网络的输出为(可以直接控制机器的)控制指令,如:

1. Nvidia的基于CNNs的end-end自动驾驶,输入图片,直接输出steering angle。从视频来看效果拔群,但其实这个系统目前只能做简单的follow lane,与真正的自动驾驶差距较大。亮点是证实了end-end在自动驾驶领域的可行性,并且对于数据集进行了augmentation。链接:https://devblogs.nvidia.com/parallelforall/deep-learning-self-driving-cars/

2. Google的paper: Learning Hand-Eye Coordination for Robotic Grasping with Deep Learning and Large-Scale Data Collection,也可以算是end-end学习:输入图片,输出控制机械手移动的指令来抓取物品。这篇论文很赞,推荐:https://arxiv.org/pdf/1603.02199v4.pdf

3. DeepMind神作Human-level control through deep reinforcement learning,其实也可以归为end-end,深度增强学习开山之作,值得学习:http://www.nature.com/nature/journal/v518/n7540/full/nature14236.html

4. Princeton大学有个Deep Driving项目,介于end-end和传统的model based的自动驾驶之间,输入为图片,输出一些有用的affordance(实在不知道这词怎么翻译合适…)例如车身姿态、与前车距离、距路边距离等,然后利用这些数据通过公式计算所需的具体驾驶指令如加速、刹车、转向等。链接:http://deepdriving.cs.princeton.edu/

总之,end-end不是什么新东西,也不是什么神奇的东西,仅仅是直接输入原始数据,直接输出最终目标的一种思想。

 

胖子不胖------------------------>

 

其实就是joint learning.

end-to-end 的本质是你要解决的问题是多阶段的或多步的(跟所谓的raw feature没啥关系)。如果分阶段学习的话,第一阶段的最优解不能保证第二阶段的问题达到最优。end-to-end把他们堆在一起来优化,确保最后阶段的解达到最优。

 

想飞的石头-------------------------->

 

因为多层神经网络被证明能够耦合任意非线性函数,通过一些配置能让网络去做以前需要人工参与的特征设计这些工作,然后配置合适的功能如classifier,regression,而现在神经网络可以通过配置layers的参数达到这些功能,整个输入到最终输出无需太多人工设置,从raw data 到最终输出指标。

本文转载自:https://blog.csdn.net/houwenbin1986/article/details/78537269

上一篇: 日志框架冲突
下一篇: Gensim?
火力全開
粉丝 23
博文 252
码字总数 19546
作品 0
卢湾
高级程序员
私信 提问
使用@Async异步任务提交事物不生效

如上代码所示,@Async首先得用在不同类中,所以下放到Service中的一个方法,这个方法有耗时操作(调用外部接口打印发票),打印完结果还要更新到数据库,为了避免大事物,将方法命名为print...

Lucare
2018/07/18
571
6
为什么datagrid后台分页时,rownumbers不变化?

在做后台分页时,现在遇到了在翻页时,rownumbers快速变化后,接着变成从1-100,rownumbers有变化,但是很快就变成1-100,这是怎么回事呀?有大神知道吗? 看到一个帖子这么处理rownumbers:...

无心1990
2018/04/26
253
0
oracle 存储过程 传入参数问题

我建了一个存储过程 一个传入参数 一个输出参数 代码 : CREATE OR REPLACE PROCEDURE getValidPointsByCustomerID( customer_id in varchar2, validpoints out number ) is BEGIN select po......

活不明白·
2013/07/17
1K
4
AI学习笔记——End-to-End(端到端)的深度学习

1. 什么是End-to-End 学习 要知道什么是End-to-End学习首先要知道传统的非End-to-End学习是什么。以语义分类(判断评论为正面评论还是负面评论)为例,非End-to-End的学习需要对语音识别之前...

Hongtao洪滔
2018/07/10
0
0
高手问答第 209 期 — 深度学习如此火热,你了解得怎么样了?

OSCHINA 本期高手问答(2018 年 8 月 22 日 — 8 月 28 日)我们请来了@玉来愈宏 为大家解答关于深度学习方面的问题。 张玉宏,电子科技大学博士,美国西北大学访问学者,现执教于河南工业大学...

局长
2018/08/21
2.3K
29

没有更多内容

加载失败,请刷新页面

加载更多

如何限制用户仅通过HTTPS方式访问OSS?

一、当前存在的问题 当前OSS支持用户使用HTTPS/HTTP协议访问Bucket。但由于HTTP存在安全漏洞。大型企业客户都要求使用HTTPS方式访问OSS,并且拒绝HTTP访问请求。 目前OSS可以通过RAM policy方...

阿里云官方博客
12分钟前
0
0
详解深度学习之经典网络架构——LeNet

一、基本简介 LeNet-5出自论文Gradient-Based Learning Applied to Document Recognition,是一种用于手写体字符识别的非常高效的卷积神经网络。 二、LeNet网络的基本结构 LeNet5 这个网络虽...

AI女神
15分钟前
0
0
日志服务Python消费组实战(二):实时分发数据

场景目标 使用日志服务的Web-tracking、logtail(文件极简)、syslog等收集上来的日志经常存在各种各样的格式,我们需要针对特定的日志(例如topic)进行一定的分发到特定的logstore中处理和...

阿里云云栖社区
15分钟前
1
0
LVM 增加磁盘扩容

sudo parted /dev/sdeparted> mklabel gptparted> mkpart primary lvm ext4 %0 %100parted> printsudo lvmlvm> pvcreate /dev/sde1lvm> vgextend vg-data /dev/sde1lvm> lve......

仪山湖
19分钟前
0
0
Linux挂载本地iso镜像,不联网使用yum命令

上传iso镜像文件到/mnt 目录下 在/mnt目录下创建Server目录 mkdir Server 备份 /etc/yum.repos.d/目录下的repo文件 cd /etc/yum.repos.dmkdir repobakmv *.repo repobak/ 挂载本地iso文件...

AustinYe
20分钟前
1
0

没有更多内容

加载失败,请刷新页面

加载更多

返回顶部
顶部