全新缓存组件,大幅加速云上飞桨分布式训练作业

原创
2021/12/31 05:14
阅读数 1.2K

在Kubernetes的架构体系中,计算与存储是分离的,这给数据密集型的深度学习作业带来较高的网络IO开销。为了解决该问题,我们基于JuiceFS在开源项目Paddle Operator中实现了样本缓存组件,大幅提升了云上飞桨分布式训练作业的执行效率。

*JuiceFS:

https://github.com/juicedata/juicefs

*Paddle Operator:

https://github.com/PaddleFlow/paddle-operator

背景介绍

由于云计算平台具有高可扩展性、高可靠性、廉价性等特点,越来越多的机器学习任务运行在Kubernetes集群上。因此我们开源了Paddle Operator项目,通过提供PaddleJob自定义资源,让云上用户可以很方便地在Kubernetes集群使用飞桨PaddlePaddle)深度学习框架运行模型训练作业。

然而,在深度学习整个pipeline中,样本数据的准备工作也是非常重要的一环。目前云上深度学习模型训练的常规方案主要采用手动或脚本的方式准备数据,这种方案比较繁琐且会带来诸多问题。比如将HDFS里的数据复制到计算集群本地,然而数据会不断更新,需要定期的同步数据,这个过程的管理成本较高;或者将数据导入到远程对象存储,通过制作PV和PVC来访问样本数据,从而模型训练作业就需要访问远程存储来获取样本数据,这就带来较高的网络IO开销。

*Paddle Operator:

https://github.com/PaddleFlow/paddle-operator

*PaddlePaddle

https://www.paddlepaddle.org.cn/

1756dee0441d3afafd84a014dde5a145.png

为了方便云上用户管理样本数据,加速云上飞桨框架分布式训练作业,我们与JuiceFS社区合作,联合推出了面向飞桨框架的样本缓存与管理方案,该方案期望达到如下目标:

  • 数据集及其管理操作的自定义资源抽象。将样本数据集及其管理操作抽象成Kubernetes的自定义资源,屏蔽数据操作的底层细节,减轻用户心智负担。用户可以很方便地通过操作自定义资源对象来管理数据,包括数据同步、数据预热、清理缓存、淘汰历史数据等,同时也支持定时任务。

  • 基于JuiceFS加速远程数据访问。JuiceFS是一款面向云环境设计的高性能共享文件系统,其在数据组织管理和访问性能上进行了大量针对性的优化。基于JuiceFS实现样本数据缓存引擎,能够提供高效的文件访问性能。

  • 充分利用本地存储,缓存加速模型训练。要能够充分利用计算集群本地存储,比如内存和磁盘,来缓存热点样本数据集,并配合缓存亲和性调度,在用户无感知的情况下,智能地将作业调度到有缓存的节点上。这样就不用反复访问远程存储,从而加速模型训练速度,一定程度上也能提升GPU资源的利用率。

  • 统一数据接口,支持多种存储后端。样本缓存组件要能够支持多种存储后端,并且能提供统一的POSIX协议接口,用户无需在模型开发和训练阶段使用不同的数据访问接口,降低模型开发成本。同时样本缓存组件也要能够支持从多个不同的存储源导入数据,适配用户现有的数据存储状态。

面临的挑战

然而,在Kubernetes的架构体系中,计算与存储是分离的,这种架构给上诉目标的实现带来了些挑战,主要体现在如下几点:

  • Kubernetes 调度器是缓存无感知的,也就是说kube-scheduler并没有针对本地缓存数据的调度策略,因此模型训练作业未必能调度到有缓存的节点,从而导致缓存无法重用。如何实现缓存亲和性调度,协同编排训练作业与缓存数据,是我们面临的首要问题。

  • 在数据并行的分布式训练任务中,单机往往存放不下所有的样本数据,因此样本数据是要能够以分区的形式分散缓存在各计算节点上。然而,我们知道负责管理自定义资源的控制器(Controller Manager)不一定运行在缓存节点上,如何通过自定义控制器来管理分布式的缓存数据,也是实现该方案时要考虑的难点问题。

  • 除了前述两点,如何结合飞桨框架合理地对样本数据进行分发和预热,提高本地缓存命中率,减少作业访问远程数据的次数,从而提高作业执行效率,这还需要进一步的探索。

针对上述问题,我们在开源项目Paddle Operator中提供了样本缓存组件,较好地解决了这些挑战,下文将详细阐述我们的解决方案。

整体设计方案

331513507ade5b2455167ad1156de026.png

上图是Paddle Operator的整体架构,其构建在Kubernetes上,包含如下三个主要部分:

1.自定义API资源(Custom Resource)

Paddle Operator定义了三个CRD,用户可编写和修改对应的YAML文件来管理训练作业和样本数据集。

  • PaddleJob飞桨分布式训练作业的抽象,它将Parameter Server(参数服务器)和Collective(集合通信)两种分布式深度学习架构模式统一到一个CRD中,用户通过创建PaddleJob可以很方便地在Kubernetes集群运行分布式训练作业。

  • SampleSet是样本数据集的抽象,数据可以来自远程对象存储、HDFS或Ceph等分布式文件系统,并且可以指定缓存数据的分区数、使用的缓存引擎、 多级缓存目录等配置。

  • SampleJob定义了些样本数据集的管理作业,包括数据同步、数据预热、清除缓存、淘汰历史旧数据等操作,支持用户设置各个数据操作命令的参数, 同时还支持以定时任务的方式运行数据管理作业。

2.自定义控制器(Controller Manager)

控制器在 Kubernetes 的 Operator 框架中是用来监听 API 对象的变化(比如创建、修改、删除等),然后以此来决定实际要执行的具体工作。

  • PaddleJob Controller负责管理PaddleJob的生命周期,比如创建参数服务器和训练节点的Pod,并维护工作节点的副本数等。

  • SampleSet Controller负责管理SampleSet的生命周期,其中包括创建 PV/PVC等资源对象、创建缓存运行时服务、给缓存节点打标签等工作。

  • SampleJob Controller负责管理SampleJob的生命周期,通过请求缓存运行时服务的接口,触发缓存引擎异步执行数据管理操作,并获取执行结果。

3.缓存引擎(Cache Engine)

缓存引擎由缓存运行时服务(Cache Runtime Server)和JuiceFS存储插件(JuiceFS CSI Driver)两部分组成,提供了样本数据存储、缓存、管理的功能。

  • Cache Runtime Server负责样本数据的管理工作,接收来自SampleSet Controller和SampleJob Controller的数据操作请求,并调用JuiceFS客户端完成相关操作执行。

  • JuiceFS CSI Driver是JuiceFS社区提供的CSI插件,负责样本数据的存储与缓存工作,将样本数据缓存到集群本地并将数据挂载进PaddleJob的训练节点。

*JuiceFS存储插件:

https://github.com/juicedata/juicefs-csi-driver

难点突破与优化

在上述的整体架构中,Cache Runtime Server是非常重要的一个组件,它由Kubernetes原生的API资源StatefulSet实现,在每个缓存节点上都会运行该服务,其承担了缓存数据分区管理等工作,也是解决难点问题的突破口。下图是用户创建SampleSet后,Paddle Operator对PaddleJob完成缓存亲和性调度的大概流程。

ea0a95ad5fb646d1752277d0dff5b941.png

当用户创建SampleSet后,SampleSet Controller就会根据 SampleSet中的配置创建出PV和PVC。在PV和PVC完成绑定后,SampleSet Controller则会将PVC添加到Runtime Pod模板中,并创建出指定分区数的Cache Runtime Server。在Cache Runtime Server成功调度到相应节点后,SampleSet Controller则会对该节点做标记,且标记中还带有缓存的分区数。这样等下次用户提交PaddleJob时,Paddle Controller会自动地给Paddle Worker Pod添加nodeAffinity和PVC字段,这样调度器(Scheduler)就能将Paddle Worker调度到指定的缓存分区节点上,这即实现了对模型训练作业的缓存亲和性调度。

值得一提的是,在该调度方案中,Paddle框架的训练节点能够做到与缓存分区一一对应的,这能够最大程度上地利用本地缓存的优势。当然,该方案同时也支持对PaddleJob的扩缩容,当PaddleJob的副本数大于SampleSet的分区数时(这也是可以调整的),PaddleJob Controller并不会对多出来Paddle Worker做nodeAffinity限制,这些Paddle Worker还可以通过挂载的Volume访问远程存储来获取样本数据。

解决了缓存亲和性调度的问题,我们还面临着SampleSet/SampleJob Controller如何管理分布式样本缓存数据集,如何合理地做分布式预热的挑战。使用JuiceFS CSI存储插件可以解决样本数据存储与缓存的问题,但由于Kubernetes CSI插件提供的接口有限(只提供了与 Volume 挂载相关的接口),所以需要有额外的数据管理服务驻守在缓存节点,即:Cache Runtime Server。

281514f676cfce7fda22df0c9e539cc0.png

上图是 Cache Runtime Server 内部工作流程示意图,其中封装了JuiceFS客户端的可执行文件。Runtime Server提供了三种类型的接口,它们的作用分别是:

1.上传数据操作命令的参数

2.获取数据操作命令的结果

3.获取样本数据集及其缓存的状态。

Server在接收到Controller上传的命令参数后,会将参数写到指定路径,然后会触发Worker进程异步地执行相关操作命令,并将命令执行结果写到结果路径,然后Controller可以通过调用相关接口获取数据管理作业的执行结果。

数据同步、清理缓存、淘汰旧数据这三个操作比较容易实现,而数据预热操作的实现相对会复杂些。因为,当样本数据量比较大时,单机储存无法缓存所有数据,这时就要考虑对数据进行分区预热和缓存。为了最大化利用本地缓存和存储资源,我们期望对数据预热的策略要与飞桨框架读取样本数据的接口保持一致。

因此,对于WarmupJob我们目前实现了两种预热策略:SequenceRandom,分别对应飞桨框架SequenceSampler和DistributedBatchSampler两个数据采样API。JuiceFS的Warmup命令支持通过--file参数指定需要预热的文件路径,故将0号Runtime Server作为Master,负责给各个分区节点分发待预热的数据,即可实现根据用户指定的策略对样本数据进行分布式预热的功能。

至此,难点问题基本都得以解决,该方案将缓存引擎与飞桨框架紧密结合,充分利用了本地缓存来加速云上飞桨的分布式训练作业。

使用示例

下面我们通过训练ResNet50模型的例子来简要说明下如何使用Paddle Operator,您只需要准备两个YAML配置文件,即可轻松地在Kubernetes集群上完成复杂的分布式深度学习任务。第一步是编写SampleSet的YAML文件,并指定远程数据源,如下:

apiVersion: batch.paddlepaddle.org/v1alpha1
kind: SampleSet
metadata:
  name: imagenet
  namespace: paddle-system
spec:
  # 分区数,一个Kubernetes节点表示一个分区
  partitions: 2
  source:
    uri: bos://paddleflow-public.hkg.bcebos.com/imagenet
  secretRef:
    name: imagenet

通过kubectl apply -f命令可以创建该样本数据集,您还可以查看样本数据集及其缓存的状态:

2a1ec5da7e504fdd0b48b8f6f2f713da.png

等SampleSet的状态为Ready后,您就可以通过编写如下的PaddleJob来完成ResNet50模型的训练了:

apiVersion: batch.paddlepaddle.org/v1
kind: PaddleJob
metadata:
  name: resnet
spec:
  # 指定要使用的 SampleSet
  sampleSetRef:
    name: imagenet
    mountPath: /data
  worker:
    replicas: 2
    template:
      spec:
        containers:
          - name: resnet
            image: registry.baidubce.com/paddle-operator/demo-resnet:v1
            command:
            - python
            args:
            - "-m"
            - "paddle.distributed.launch"
            - "./tools/train.py"
            - "-c"
            - "./config/ResNet50.yaml"
            resources:
              limits:
                nvidia.com/gpu: 2

更多的使用文档可以参考Paddle Operator。

性能测试

为了验证Paddle Operator样本缓存加速方案的实际效果,我们选取了常规的ResNet50模型以及ImageNet数据集来进行性能测试,并使用了PaddleClas项目中提供的模型实现代码。具体的实验配置如下:

89849db1adfca231d7bd636e15f2c57d.png

基于以上配置,我们做了两组实验。

5c2ce467a7f3d29749f4c72e77254245.png

第一组实验对比了样本数据缓存前后的性能差异,从而验证了使用样本缓存组件来加速云上飞桨训练作业的必要性。

如上图,在样本数据缓存到训练节点前,1机1卡和1机2卡的训练速度分别为211.26和224.23 images/s;在样本数据得以缓存到本地后,1机1卡和1机2卡的训练速度分别为383.01和746.76 images/s。可以看出,在计算与存储分离的Kubernetes集群里,由于带宽有限(本实验的带宽为50Mbps),训练作业的主要性能瓶颈在于远程样本数据IO上。带宽的瓶颈并不能通过调大训练作业的并行度来解决,并行度越高,算力浪费越为严重。

因此,使用样本缓存组件提前将数据预热到训练集群本地,可以大幅加速云上飞桨训练作业的执行效率。在本组实验中,1机1卡训练效率提升了81.3%,1机2卡的训练速度提升了233%。

此外,使用样本缓存组件预热数据后,1机1卡383.01 images/s的训练速度与直接在宿主机上的测试结果一致,也就是说,缓存引擎本身基本上没有带来性能损耗。

e5907b6c1582f8ef25e9aee98362ecad.png

第二组实验对比了使用1机1卡时样本数据预热前后JuiceFS与BOS FS的性能差异,相比于BOS FS,JuiceFS在访问远程小文件的场景下具有更优的性能表现。

如上图,在样本数据预热到本地前,需要通过CSI插件访问远程对象存储(如BOS)中的样本数据,使用BOS FS CSI插件与JuiceFS CSI插件的训练速度分别是69.71和211.26 images/s;在样本数据得以缓存在本地后,使用BOS FS CSI插件与JuiceFS CSI插件的训练速度分别是381.98和382.43 images/s,性能基本没有差异。

由此可以看出,在访问远程小文件的场景下,JuiceFS相比BOS FS有近3倍的性能提升。两者的性能差异可能与JuiceFS的文件存储格式和BOS FS的实现有关,这有待进一步验证。除了性能上的考量,JuiceFS提供的文件系统挂载服务更加稳定,功能完善且易用,这也是优先选择JuiceFS作为底层缓存引擎的重要原因。

总结及展望

样本数据的准备工作是深度学习pipeline中的重要一环,本文总结了在云上管理样本数据并加速其访问效率所面临的挑战,在文章的第3和第4节我们给出了这些问题的详细解决方案。进一步地,我们对Paddle Operator的样本缓存方案进行了性能测试,实验结果表明该方案能大幅加速云上飞桨的模型训练作业。现该方案已在Paddle Operator项目中开源,欢迎大家来体验并使用。

在后续的工作中,我们将继续完善样本数据管理功能,提供更多的数据管理策略,并进一步加强Operator与飞桨框架的协同优化工作。除了离线训练的场景,我们也在探索Operator支持在线学习场景的解决方案,如您对这些工作也很感兴趣,欢迎参与进来一起讨论、开发。

欢迎大家进群,一起学习交流~

飞桨官方QQ群:441226485
推理部署官方QQ群:959308808
ERNIE QQ群:958422639
PaddleX QQ群:957286141

PaddleParl QQ群:483490828

030167180134ae5e2f7743c62611ed22.gif

关注公众号,获取更多技术内容~

本文同步分享在 博客“飞桨PaddlePaddle”(CSDN)。
如有侵权,请联系 support@oschina.cn 删除。
本文参与“OSC源创计划”,欢迎正在阅读的你也加入,一起分享。

展开阅读全文
加载中
点击引领话题📣 发布并加入讨论🔥
打赏
0 评论
0 收藏
0
分享
返回顶部
顶部