文档章节

MXNet Scala 学习笔记 二 ---- 创建新的 Operator

Ldpe2G
 Ldpe2G
发布于 2017/09/08 21:06
字数 1633
阅读 806
收藏 0

码上生花,ECharts 作品展示赛正式启动!>>>

MXNet Scala包中创建新的操作子

用现有操作子组合

    在MXNet中创建新的操作子有多种方式。第一种最简单的方法就是在前端(比如Python、Scala)
采用现有的操作子来组合,比如实现 Selu  激活函数。简单示例代码如下:

def selu(x: Symbol): Symbol = {
  val alpha = 1.6732632423543772848170429916717f
  val scale = 1.0507009873554804934193349852946f
  val condition = x >= 0f
  val y = Symbol.LeakyReLU()()(Map("data" -> x, "act_type" -> "elu", "slope" -> alpha))
  scale * Symbol.where()()(Map("condition" -> condition, "x" -> x, "y" -> y))
}

更详细的代码可参考:SelfNormNets。    或者实现L1损失函数,L1_Loss

def getAbsLoss(): Symbol = {
  val origin = Symbol.Variable("origin")
  val rec = Symbol.Variable("rec")
  val diff = origin - rec
  val abs = Symbol.abs()()(Map("data" -> diff))
  val mean = Symbol.mean()()(Map("data" -> abs))
  Symbol.MakeLoss()()(Map("data" -> mean))
}

    这种方式比较简单,而且如果你对现有的操作子基本熟悉的话,那么一般的需求基本都能满足。

CustomOp接口

   第二种是相对难度大一点的,比较接近第三种,有时候可能单纯的操作子组合满足不了需求,那就可以

采用继承CustomOp接口的方式,下面举Softmax的例子来解说:

class Softmax(_param: Map[String, String]) extends CustomOp {

  override def forward(sTrain: Boolean, req: Array[String],
    inData: Array[NDArray], outData: Array[NDArray], aux: Array[NDArray]): Unit = {
    val xShape = inData(0).shape
    val x = inData(0).toArray.grouped(xShape(1)).toArray
    val yArr = x.map { it =>
      val max = it.max
      val tmp = it.map(e => Math.exp(e.toDouble - max).toFloat)
      val sum = tmp.sum
      tmp.map(_ / sum)
    }.flatten
    val y = NDArray.empty(xShape, outData(0).context)
    y.set(yArr)
    this.assign(outData(0), req(0), y)
    y.dispose()
  }

  override def backward(req: Array[String], outGrad: Array[NDArray],
    inData: Array[NDArray], outData: Array[NDArray],
    inGrad: Array[NDArray], aux: Array[NDArray]): Unit = {
    val l = inData(1).toArray.map(_.toInt)
    val oShape = outData(0).shape
    val yArr = outData(0).toArray.grouped(oShape(1)).toArray
    l.indices.foreach { i =>
      yArr(i)(l(i)) -= 1.0f
    }
    val y = NDArray.empty(oShape, inGrad(0).context)
    y.set(yArr.flatten)
    this.assign(inGrad(0), req(0), y)
    y.dispose()
  }
}

    首先继承CustomOp抽象类,然后实现forward和backward函数,构造函数参数"_param"可以

当做是能够提取用户在构造Symbol时传入的参数具体例子可以参考CustomOpWithRtc

forward和backward的具体实现大家看源码就清楚了,变量名也很清晰,就是softmax的简化版。

需要注意的是,在算出结果之后,比如forward的y和backward的y之后,这时候需要调用内置的

assign函数把结果赋值给相应的outData或者inGrad。这里的req有几种"write"、"add"、"inplace"和

"null":

def assign(dst: NDArray, req: String, src: NDArray): Unit = req match {
  case "write" | "inplace" => dst.set(src)
  case "add" => dst += src
  case "null" => {}
}

在赋值完之后,因为y是临时申请的NDArray,所以在函数返回前需要调用dispose函数释放内存。

这是在使用Scala包的时候需要注意的地方。而inData数组里面的NDArray对应数据和标签的顺序

是接下来要说的。

    实现好CustomOp之后,需要再继承CustomOpProp抽象类,主要是定义自定义操作子的一些

比如输入输出的格式和相关信息等等。

class SoftmaxProp(needTopGrad: Boolean = false)
 extends CustomOpProp(needTopGrad) {

  override def listArguments(): Array[String] = Array("data", "label")

  override def listOutputs(): Array[String] = Array("output")

  override def inferShape(inShape: Array[Shape]):
    (Array[Shape], Array[Shape], Array[Shape]) = {
    val dataShape = inShape(0)
    val labelShape = Shape(dataShape(0))
    val outputShape = dataShape
    (Array(dataShape, labelShape), Array(outputShape), null)
  }

  override def inferType(inType: Array[DType]):
    (Array[DType], Array[DType], Array[DType]) = {
    (inType, inType.take(1), null)
  }

  override def createOperator(ctx: String, inShapes: Array[Array[Int]],
    inDtypes: Array[Int]): CustomOp = new Softmax(this.kwargs)
}

Operator.register("softmax", new SoftmaxProp)


//定义网络构造
val data = Symbol.Variable("data")
val label = Symbol.Variable("label")
val fc1 = Symbol.FullyConnected("fc1")()(Map("data" -> data, "num_hidden" -> 128))
val act1 = Symbol.Activation("relu1")()(Map("data" -> fc1, "act_type" -> "relu"))
val fc2 = Symbol.FullyConnected("fc2")()(Map("data" -> act1, "num_hidden" -> 64))
val act2 = Symbol.Activation("relu2")()(Map("data" -> fc2, "act_type" -> "relu"))
val fc3 = Symbol.FullyConnected("fc3")()(Map("data" -> act2, "num_hidden" -> 10))
val mlp = Symbol.Custom("softmax")()(Map("data" -> fc3, "label" -> label, "op_type" -> "softmax"))

    needTopGrad参数表示在backward的时候是否需要来自顶层的梯度,因为softmax是损失层,

一般放在网络最后,所以是不需要顶层的梯度,所以这里默认为false。然后listArguments函数

和listOutputs函数是定义该层操作子的输入与输出。这里listArugments的顺序与forward中的inData

顺序对应,同时listArugments还可以定义该层的输入还可以定义该层的参数,比如卷积层需要权值,

也需要在这里定义。inferShape就是根据输入的形状来推导网络的输出与参数形状,这些需要自己实现。

inferType的实现是可选的,支持多种数据类型DType。最后再实现createOperator函数,kwargs成员

变量存储了用户在构造Symbol时传入的参数,比如上面代码定义网络构造的代码,最后通过调用

Symbol.Custom函数然后根据你注册的操作子的名称就是"op_type"参数找到你自己实现的操作子。

用户还可以传任意的自定义参数,string->string,具体例子可以参考CenterLossCustomOpWithRtc

CustomOp使用注意事项

    在使用CustomOp创建操作子的时候需要注意的是,因为这种方式实现的操作子不是用已有的

操作子组合,而是用前端自己实现的,所以在保存训练模型的时候,尽管保存的模型定义的json文件

中会包含你的操作子,但是这个保存的模型直接给其他的用户是用不了的,因为在载入的时候会

报错,找不到你自己定义操作子,你需要把源码也给其他人,这是需要注意的地方。

    而对Scala包的CustomOp内部实现感兴趣的读者可以去看看源码:CustomOp实现源码

JNI部分源码。对于实现CustomOp这个功能,可以说是我参与MXNet项目以来提交的所有的pr中

难度最大之一了,因为对JNI不是很熟,还记得当时是一边google一边debug弄了差不多两周才

搞好这个功能。不过这个过程中也算是学到了不少东西。

C++

    最后一种就是采用C++来实现了,也是难度最大的,其实CustomOp是这种方式的简化版,

CustomOp其实在后端也对应也有C++的实现,相当于在后端有一个CustomOp来调用

前端定义的CustomOp,具体源码:

https://github.com/apache/incubator-mxnet/tree/master/src/operator/custom

而Scala包Symbol类的操作子定义是采用macro的方式生成的,自动与C++这边同步,所以

只要你按照文档在C++端定义好新的操作子,那么在Scala包这边就能用。

怎么用C++自动以新的操作子这里就不详细展开了具体可以参考文档源码

 

    

 

 

© 著作权归作者所有

Ldpe2G

Ldpe2G

粉丝 21
博文 24
码字总数 36793
作品 2
广州
程序员
私信 提问
加载中
请先登录后再评论。
运用 MXNet Scala API 接口进行图像分类

雷锋网(公众号:雷锋网)按:本文为雷锋字幕组编译的技术博客,原标题 Image Classification with MXNet Scala Inference API,作者为 Qing Lan, Roshani Nagmote 翻译 | 朱茵 整理 | 凡江 随...

雷锋字幕组
2018/07/20
0
0
mxnet学习二、基础(了解NDArray)

文章目录 本博客参考《MXNet深度学习实战》所做的系列笔记 一、学习系列传送门 之前的笔记: 1、mxnet学习一、数据制作以及读取 二、了解NDArray NDArray是mxnet框架中数据流的基础结构,和p...

hjxu2016
03/31
0
0
深度学习框架 MXNet 成为 Apache 孵化器项目

MXNet 是一个轻量级、可移植、灵活的分布式深度学习框架,2017 年 1 月 23 日,该项目进入 Apache 基金会,成为 Apache 的孵化器项目。 MXNet 项目由 DMLC(Distributied (Deep) Machine ...

局长
2017/02/06
3.3K
5
李沐团队半年离开六人,MxNet是否英雄落幕?贾扬清:关键能否解决新痛点

     作者 | 丛末、蒋宝尚   编辑 | 贾伟   AI 科技评论消息:昨日,据知乎网友爆料,亚马逊AI李沐团队今年初至今已经离开6人了。考虑到李沐团队一共20名正式员工,以及一个研究团队...

AI科技评论
05/19
0
0
深度学习框架 MXNet 1.1.0(incubating) 发布,改进性能

深度学习框架 MXNet 仍处于孵化阶段,目前已发布 1.1.0 版本。该版本主要的更新内容包括,改进了在 GPU 和 CPU 上的性能。而且随着支持更多的 operator,开发团队表示正在改进示例和教程。 ...

局长
2018/03/03
1K
0

没有更多内容

加载失败,请刷新页面

加载更多

OSChina 周六乱弹 —— 打死这个下蛋的鸡算了

首页乱弹入口,感谢巴蜀。 【正文】 @莫默磨墨先生 :千万不要想着摆地摊,老老实实写代码去! 别问为什么, 问就是你不合适! 干脆直接卖烤串得了…… 所以现在喊着你摆地摊的, 一定是隔壁...

小小编辑
今天
23
1
Synchronized底层实现

https://blog.csdn.net/qq_35190492/article/details/106180781

JaneRoad
今天
18
0
解决okhttp无法重用连接的问题

解决okhttp无法重用连接的问题 最近在一个程序中使用okhttp调用http接口。开始时一切正常,但是测试运行一段时间后,okhttp就会报告recv失败。同时在调用端机器上,netstat显示很多套接字是T...

tommwq
今天
17
0
入坑Linux-day15(使用DHCP动态管理主机地址)

一、动态主机配置协议(DHCP) #DHCP是一种基于UDP协议且仅限于在局域网内部使用的网路协议,主要用于大型的局域网环境或者存在较多移动办公设备的局域网环境中,其主要用途是为局域网内部的...

宁生写你
今天
8
0
js canvas 旋转90度的整数倍

为了避免出现黑框 效果如下 根据不同的方向,设置宽高和画笔位置等 <!DOCTYPE html><html lang="en"><head> <meta charset="UTF-8"/> <title>Title</title> <style> .img ......

阿豪boy
今天
22
0

没有更多内容

加载失败,请刷新页面

加载更多

返回顶部
顶部