盘点下国内厂的机器学习引擎

原创
2020/06/16 17:36
阅读数 4.6K

在人工智能和机器学习大火的背后,机器学习引擎功不可没。TensorFlowPyTorchNumPy是大家用的比较多的(以及CNTK/MXNET),背后也都有大厂和社区支持,围绕其核心也有很多算法和扩展模块,可用的资源比较多。除此之外,国内这几年一些厂商也终于明白了“核心技术是买不来的”,试图在核心引擎也能有所建树,逐渐出现了不错的软件。下面来大概盘点一下:

1、百度

飞桨PaddlePaddle)是目前国内唯一自主研发、开源开放、功能完备的产业级深度学习平台,集深度学习核心框架、基础模型库、端到端开发套件、工具组件和服务平台于一体。飞桨源于产业实践,致力于与产业深入融合,提供了领先的深度学习&机器学习任务开发、训练、部署能力,加速企业从算法研发到产业落地的过程。目前飞桨已广泛应用于工业、农业、服务业等,服务150多万开发者,与合作伙伴一起帮助越来越多的行业完成AI赋能。

安装

安装最新稳定版本:

# Linux CPU
pip install paddlepaddle
# Linux GPU cuda10cudnn7
pip install paddlepaddle-gpu
# Linux GPU cuda9cudnn7
pip install paddlepaddle-gpu==1.8.2.post97

更多安装信息详见官网 安装说明

四大领先技术

  • 开发便捷的产业级深度学习框架

    飞桨深度学习框架采用基于编程逻辑的组网范式,对于普通开发者而言更容易上手,符合他们的开发习惯。同时支持声明式和命令式编程,兼具开发的灵活性和高性能。网络结构自动设计,模型效果超越人类专家。

  • 支持超大规模深度学习模型的训练

    飞桨突破了超大规模深度学习模型训练技术,实现了支持千亿特征、万亿参数、数百节点的开源大规模训练平台,攻克了超大规模深度学习模型的在线学习难题,实现了万亿规模参数模型的实时更新。 查看详情

  • 多端多平台部署的高性能推理引擎

    飞桨不仅兼容其他开源框架训练的模型,还可以轻松地部署到不同架构的平台设备上。同时,飞桨的推理速度也是全面领先的。尤其经过了跟华为麒麟NPU的软硬一体优化,使得飞桨在NPU上的推理速度进一步突破。 查看详情

  • 面向产业应用,开源开放覆盖多领域的工业级模型库。

    飞桨官方支持100多个经过产业实践长期打磨的主流模型,其中包括在国际竞赛中夺得冠军的模型;同时开源开放200多个预训练模型,助力快速的产业应用。 查看详情

更多参考:

2、腾讯

2.1 钛机器学习

智能钛机器学习(TI Machine Learning,TI-ML)是基于腾讯云强大计算能力的一站式机器学习生态服务平台。它能够对各种数据源、组件、算法、模型和评估模块进行组合,使得算法工程师和数据科学家在其之上能够方便地进行模型训练、评估和预测。智能钛系列产品支持公有云访问、私有化部署以及专属云部署。

智能钛机器学习平台支持多样化的交互方式,以便满足各类用户的不同使用习惯。

  • 可视化建模:拖拽式自定义任务流交互设计,帮助 AI 初学者及企业内算法工程师快速上手。
  • Notebook:Notebook 是一个灵活的交互式开发工具,为算法工程师提供数据处理、算法调试与模型训练等支持。
  • TI SDK:TI SDK 是 TI-ONE 提供的开源软件包。用户可以使用 TI SDK 提交机器学习和深度学习训练任务到 TI-ONE。

如果您是智能钛机器学习平台的新用户,我们建议您按照文档顺序阅读。

  • 快速入门:在这里您可以快速了解 TI-ONE 的基本操作。
  • 最佳实践:数十个实践案例手把手带您体验在智能钛平台上使用多种算法、框架建模的全流程。
  • 操作指南:在这里您可以了解更多智能钛的操作指引和功能特性。
  • 常见问题:帮您解决使用过程中遇到的常见问题。

TI-ONE 支持按量计费包月。详情请参考 购买指南

2.2 机器学习框架Angel

腾讯开源自研机器学习框架Angel(https://github.com/Angel-ML/angel),在稀疏数据高维模型的训练上具有独特优势,擅长推荐模型和图网络模型相关领域。由腾讯与北京大学联合研发,兼顾了工业界的高可用性和学术界的创新性。作为面向机器学习的第三代高性能计算平台,腾讯Angel在稀疏数据高维模型的训练上具有独特优势,擅长推荐模型和图网络模型相关领域。当前业界主流的大规模图计算系统主要有Facebook的Big Graph、Power graph、Data bricks的 Spark GraphX等,但这些系统并不都支持图挖掘、图表示学习、图神经网络的三大类型算法。

Angel:https://github.com/Angel-ML/angel

Angel专注图计算场景

图(Graph)是一个表达能力非常强的结构, 几乎无处不在。图计算就是研究在大规模图数据下,如何高效计算,存储和管理图数据。如微信、QQ是社交网络的图,支付是红包网络、面对面网络、转帐网络等支付网络的图。图计算在QQ上的典型应用则是好友推荐,依据共同好友个数进行判断,共同好友越多,更有可能成为好友。

目前业界的大规模图计算系统主要有Facebook的Big Graph, Power graph, Data bricks的 Spark GraphX, Gemini, 以及阿里的Euler,但这些系统并不都支持三大类型算法,例如图挖掘、图表示学习、图神经网络。

在此行业背景之下,专注于复杂图计算场景的腾讯Angel应运而生。Angel是腾讯开源的大规模分布式机器学习平台,专注于稀疏数据高维模型的训练。从性能上来看,Angel优于现有图计算系统,能够支持十亿级节点、千亿级边的传统图挖掘算法,以及百亿边的图神经网络算法需求。Angel可运行于多任务集群以及公有云环境,具备高效容错恢复机制,能够进行端到端的训练,新算法容易支持,同时,Angel能够支持图挖掘、图表示、图神经网络算法,具备图学习的能力。

Angel的PS是针对高维稀疏模型设计的, 而大图是非常高维、有多达十亿的节点,也是稀疏的, 因此PS架构也适合处理图数据。图算法有多种类型,如图挖掘算法、图表示学习、图神经网络。由于Angel的PS有自定义接口, 可以灵活地应对这几类算法,整个平台不需要改动,只要实现所需接口即可。关于可靠性问题,Angel从一开始就是针对共享集群、公有云环境设计的, 并与Spark的结合. Spark也具有很强的稳定性。易用性主要指与上下游是否完整配套。Spark On Angel可以与大数据处理结合,PyTorch On Angel可以跟深度学习结合,将把大数据计算、深度学习统一起来,用户不用借助第三方平台就能完成整个流程, 易用性好。

Angel可以运行在Yarn/Kubernetes环境上,它上面现在支持三类算法:

  • 图挖掘: PageRank、Kcore、Closeness,共同好友、三角结构、社团发现、其他;
  • 图神经网络: GCN、GraphSage、DGI等神经网络算法;
  • 图表示学习: LINE、Node2Vec算法。

Angel的架构,最上面是一个参数服务器,下面分别是PyTorch on Angel和Spark on Angel。图计算前期有繁锁的预处理,用户偏好Spark或者GraphX。Angel将PS和Spark结合,整合Spark大数据能力和PS服务器能力,统一了图计算流程。PyTorch on Angel是为图神经网络而设计的,运行在Spark on Angel之上。图神经网络最近发展迅速, 但大规模的图神经网络会遇到大数据问题,也会遇到机器学习问题. 将Angel和PyTorch结合起来,就可以同时应对大数据与机器学习问题. 右边是PyTorch on Angel的架构。上面是所支持的算法,包括GCN、GraphSage、R-GCN和一些无监督算法。

从平台的易用性角度考虑。图计算任务的执行流程复杂,通常包括数据预处理, 如去除重复边、过滤异常点,图划分等。在某些场景下还会计算节点的特征、计算结点或边的权重/测度,如PageRank。另一些场景需要对图做拼接、生成等。最后才是图神经网络的训练。在做图神经网络训练时,训练只是其中很小的一部分,需要在上下游花费比较多的精力。其他图计算引擎,只是关心图计算这一个核心步骤; 而Angel将整个流程整合在一套系统里,一个任务把这个事情都做完,避免这些任务之间衔接的开销,也不用中间结果落地。这是Angel跟大数据生态、深度学习生态结合带来的好处。

从可靠性的角度,图算法对错误的容忍度较低,不应该发生错误。但因为节点多,维度高, 大规模图计算容错成本很高。Spark有一套容错机制,任务如果挂掉,可以重起。Angel PS也有一套容错机制,即写checkpoint。在图算法里,不同的数据结构的使用或访问方式不一样,有些数据是不变的, 如图结构, 但有些数据会改变, 比如模型、消息。对于不同的数据,Angel采取不同的容错方法。对于图神经网络与图表示学习,可以稍微的容忍它出现一些错误。但图挖掘算法,可能错误容忍度比较低,需要一些高的容错。

Angel 中的图计算算法

图算法比较多,先将这些算法分类,每一类采取不同的优化方式去实现和优化。

第一类是三角结构类,数三角形。这类算法是暴力算法, 没有捷径可走。例如共同好友就是三角结构。基于三角结构可以实现一系列算法, 如Cluster Rank, Clustering coefficient, Ego Network.

第二类算法是连通分量,有WCC和SCC。这类算法核心的思想是要做图的折叠或者图的压缩。这类算法有一定的捷径可走,发现连通结点后,就可以进行合并,迭代时图在会不断变小,就可以加快迭代速度。

第三类算法是节点的排序。比如PageRank、KCore、Closeness,这类算法的迭代轮数较多,可能好几百轮。有一些方法加速它,主要有两种,一种是有没有办法让它的迭代变得少一点,另一种是有没有办法让它每一轮迭代越来越快。

第四类算法是图表示学习的算法, 也是没有捷径可走, 主要考虑一些图的划分策略。像GNN,也归为一类

最后一类算法是图神经网络。图有很多节点,每个节点都有自己的特征。经过一层层的图卷积,每个节点上的特征就输出一个表示,再经过一层图卷积,又输出另外一层表示,不断的改变图每一个节点的表示,最后根据任务类型需求,对每一个节点的表示把它都加起来,再做softmax,对全图做分类。对任何两个节点,算他们俩俩相交,计算它们的概率,预测它们俩是不是有边。它的核心是一个图,一层卷积,两层卷积,然后输出。图神经网络的问题是图数据规模比较大,需要做深度学习。

Angel 图计算性能

效果对比,跟GraphX做了对比,也与其他系统做过对比。

PageRank性能是GraphX的8倍左右

(数据集:8亿节点120亿网络;机器配置:E5-2680v4*2/16G*16/4T*12/10GE*2)

图神经网络/图表示学习性能对比:

(数据集:8亿节点120亿网络;机器配置:E5-2680v4*2/16G*16/4T*12/10GE*2)

雅虎有一篇论文,按照论文实现了一遍,性能不好,优化后性能大概提升了5-6倍。图神经网络,用Angel,跟阿里的Euler系统对比,在比较小的网络,(1亿边),性能差距还是比较大的,如果在100亿的图,因为它消耗的资源比较多,就没有跑出来,Angel每一轮都跑出来了。

3、阿里

阿里主要做基于各种核心AI引擎的应用层平台、AI和应用系统,基于国际开源引擎进行修改和封装完成。

MNN端侧推理引擎

轻量级深度学习端侧推理引擎“MNN”是阿里开源的。MNN 是一个轻量级的深度学习端侧推理引擎,核心解决深度神经网络模型在端侧推理运行问题,涵盖深度神经网络模型的优化、转换和推理。目前,MNN已经在手淘、手猫、优酷、聚划算、UC、飞猪、千牛等 20 多个 App 中使用,覆盖直播、短视频、搜索推荐、商品图像搜索、互动营销、权益发放、安全风控等场景,每天稳定运行上亿次。此外,菜鸟自提柜等 IoT 设备中也有应用。在 2018 年双十一购物节中,MNN 在天猫晚会笑脸红包、扫一扫、明星猜拳大战等场景中使用。

  • 支持 Tensorflow、Caffe、ONNX 等主流模型格式,支持 CNN、RNN、GAN 等常用网络;
  • 支持 86 个 TensorflowOp、34 个 CaffeOp ;各计算设备支持的 MNN Op 数:CPU 71 个,Metal 55 个,OpenCL 40 个,Vulkan 35 个;
  • 支持 iOS 8.0+、Android 4.3+ 和具有POSIX接口的嵌入式设备;
  • 支持异构设备混合计算,目前支持 CPU 和 GPU,可以动态导入 GPU Op 插件,替代 CPU Op 的实现。

Alink流数据学习引擎

Alink 是阿里巴巴计算平台事业部PAI团队从2017年开始基于实时计算引擎 Flink 研发的新一代机器学习算法平台,提供丰富的算法组件库和便捷的操作框架,开发者可以一键搭建覆盖数据处理、特征工程、模型训练、模型预测的算法模型开发全流程。项目之所以定为Alink,是取自相关名称(Alibaba, Algorithm, AI, Flink, Blink)的公共部分。“作为业界首个同时支持批式算法、流式算法的机器学习平台,Alink 提供了 Python 接口,开发者无需 Flink 技术背景也可以轻松构建算法模型。”

Alink拥有丰富的批式算法和流式算法,帮助数据分析和应用开发人员能够从数据处理、特征工程、模型训练、预测,端到端地完成整个流程。如下图所示,Alink提供的开源算法模块中,每一个模块都包含流式和批式算法。比如线性回归,包含批式线性回归训练、流式线性回归预测和批式线性回归预测。

图深度学习框架Euler

阿里妈妈开源图深度学习框架 Euler。阿里妈妈表示,这是国内首个在核心业务大规模应用后开源的图深度学习框架。Euler 内置了大量的算法供用户直接使用,相关代码已经可在 GitHub 上进行下载。

分布式图引擎针对海量图存储,分布式并行图计算及异构图进行了优化设计,确保了工业场景下的有效应用。

机器学习PAI

阿里云机器学习平台PAI(Platform of Artificial Intelligence),为传统机器学习和深度学习提供了从数据处理、模型训练、服务部署到预测的一站式服务。

4、商汤

商汤科技(https://www.sensetime.com/Technology/study.html)主要侧重于图形、图像的机器学习,用于智能驾驶、图像识别等领域,基于芯片级的算法模型开发和优化,以及提供硬件和软件解决方案。以原创技术体系为根基,深度学习平台为核心“大脑”,布局多领域、多方向前沿研究,快速打通AI在各个垂直场景中的应用。技术和业务领域包括:

自主研发的原创AI训练框架SenseParrots,拥有自主知识产权和完整技术栈,支持动态图大规模并发训练。通过对计算、内存、通信和IO的整体深入优化,可以有效支持工业级规模的训练,并在整体性能上达到业内领先水平,大幅度提高了AI技术的研发和部署效率,拓宽了应用边界。由于所提供的技术和产品以软硬件一体为主,无法在其他平台上运行,因此不提供开源,主要提供客户以API/SDK和工具套件、一体化系统、解决方案为主。

5、寒武纪

寒武纪科技(http://www.cambricon.com/)是全球第一个成功流片并拥有成熟产品的智能芯片公司,拥有终端和服务器两条产品线。可以支持TensorFlow\Caffe\MXnet等软件引擎,与PanddlePaddle也进行了对接

2016年推出的寒武纪1A处理器(Cambricon-1A)是世界首款商用深度学习专用处理器,面向智能手机、安防监控、可穿戴设备、无人机和智能驾驶等各类终端设备,在运行主流智能算法时性能功耗比全面超越CPU和GPU,与特斯拉增强型自动辅助驾驶、IBM Watson等国内外新兴信息技术的杰出代表同时入选第三届世界互联网大会评选的十五项“世界互联网领先科技成果”。目前公司与智能产业的各大上下游企业建立了良好的合作关系。

“在人工智能大爆发的前夜,寒武纪科技的光荣使命是引领人类社会从信息时代迈向智能时代,做支撑智能时代的伟大芯片公司。”

寒武纪科技的Cambricon-1A是一款深度学习专用处理器芯片(NPU),其高性能硬件架构及软件支持Caffe、Tensorflow、MXnet等主流AI开发平台。据称这是国际上首个成功商用的深度学习处理器IP产品,可广泛应用于计算机视觉、语音识别、自然语言处理等智能处理关键领域。专注于人工智能产业发展的美国权威媒体CB Insights最新发布全球AI 100榜单,寒武纪以其深度学习专用处理器入选,是中国大陆唯一一家上榜的AI硬件创业公司。

寒武纪目前有三条产品线:首先是智能终端处理器IP授权,智能IP指令集可授权集成到手机、安防、可穿戴设备等终端芯片中,客户包括国内顶尖SoC厂商,现已开始投入市场。其次,在智能云服务器芯片领域,作为PCIE加速卡插在云服务器上,客户主要是国内的知名服务器厂商。第三,家用智能服务机器人芯片:从智能玩具、智能助手入手,使服务机器人独立具备看听说的能力。客户是各类下游机器人厂商,产品的推出将比智能云服务器芯片更晚一些。

6、旷视科技

北京旷视科技有限公司(https://www.megvii.com/)成立于 2011 年 10 月,是中国领军的人工智能产品公司。旷视以深度学习和物联传感技术为核心,立足于自有原创深度学习算法引擎 Brain++,深耕金融安全,城市安防,手机 AR,商业物联,工业机器人五大核心行业,致力于为企业级用户提供全球领先的人工智能产品和行业解决方案。

旷视Brain++是由旷视研究院自主研发的新一代 AI 生产力平台,致力于深度学习,简单开发,帮助企业和开发者提升AI生产效率、规范生产流程。目前,旷视Brain++已实现旷视全员使用,并正通过逐步开源核心框架、开放算力和数据平台的形式,将AI生产力共享给企业、高校和研究机构中的广大开发者、师生和学者。

 MegEngine

MegEngine是一个开源的机器学习平台,参考:

提供的主要组件包括:

  • MegStudio,MegStudio是一个在线深度学习开发平台,提供数据、模型以及免费的算力服务,可以快速开始一个深度学习项目的开发。

  • 模型中心,模型中心(ModelHub)基于旷视研究院领先的深度学习算法,提供满足多业务场景的预训练模型

  • 示例模型,通过示例模型,你可以获取旷视官方提供的多种模型并进行二次开发。

  • Objects365,Objects365是一个大型、高质量、开放的目标检测数据集,包含365种目标类别和超过600000张图片

7、华为

华为麒麟970:号称全球首款AI处理器

华为声称麒麟970是全球第一款人工智能系统级芯片,Kirin 970选择了异构计算架构来大幅提升AI的运算能力,内置独立的神经网络处理单元。据说这种专用硬件处理单元源自寒武纪NPU IP授权,专门用于机器学习和一般的AI应用程序。

Kirin970采用台积电10ns芯片组制程技术(耗电量减少20%,体积减少 40%),主要规格如下:8 核心 CPU(时脉最高达2.4GHz),新世代12核心GPU(Mali G72MP12)、Kirin NPU(1.92T FP16 OPS)、Image DSP(512bit SIMD)、Dual Camera ISP(具备脸部、动作侦测)、HiFi Audio(32bit/384k)、UFS 2.1、安全引擎(inSE&TEE)、全球通用4.5G数据机(1.2Gbps@LTE Cat 18)、4K影像(HDR10)、LPDDR 4X、i7感应处理器。

华为宣布将在美国上市的Huawei Mate 10 Pro会搭载麒麟970芯片,另外华为荣耀(Honor V10)也会采用。相较之下,高通骁龙845也把大部分焦点集中在AI,而普及率无疑会比麒麟970高,骁龙845支持众多Android 旗舰智能手机,当中包括三星、Sony、LG 和小米的高端产品。

与华为麒麟970芯片不同的是,高通是在通用平台内做内核优化,它没有独立的神经网络引擎单元,而是更弹性的机器学习架构,分布在CPU、GPU、DPS等每个单元上,从而可以针对不同移动终端弹性调用各个处理单元。

对于两者方向的不同,高通方面认为集成更加有效。但华为认为,鉴于手机对能耗的要求,独立NPU处理单元未来一定是手机处理器的必由之路,从现在看只有苹果和华为做了独立的NPU。

最近从微博流出Kirin 970与Snapdragon 845跑分对比,声称前者跑分比后者还要高出7%,但麒麟970、骁龙845的差异其实不大,且网络还只秀出几个独立测试结果,并非完整跑分的平均值,显示差距甚至可能比表面看来还小。同样地,就算处理器的跑分很高,实地运作的绩效还是不一定,尤其在差距如此微小的情况下。话虽如此,外泄的跑分结果依旧暗示华为旗舰处理器的运算能力有可能很快会追上高通。

深度学习框架 MindSpore

今年的华为开发者大会 HDC 2020 上,除了昇腾、鲲鹏等自研芯片硬件平台之外,深度学习框架 MindSpore 宣布开源。

MindSpore 是一款支持端、边、云独立/协同的统一训练和推理框架。华为希望通过这款完整的软件堆栈,实现一次性算子开发、一致的开发和调试体验,以此帮助开发者实现一次开发,应用在所有设备上平滑迁移的能力。作为一款「全场景 AI 框架」,MindSpore 是华为人工智能解决方案的重要组成部分,与 TensorFlow、PyTorch、PaddlePaddle 等流行深度学习框架对标,旨在大幅度降低 AI 应用开发门槛,让人工智能无处不在。

原生支持 AI 芯片,全场景一致的开发体验——除了这些我们早已知晓的强大之处外,今天华为还着重展示了 MindSpore 的三大创新能力:新编程范式,执行模式和协作方式。主要由自动微分、自动并行、数据处理等功能构成。MindSpore 具备开发算法即代码、运行高效、部署态灵活的特点,其核心分为三层:从下往上分别是后端运行时、计算图引擎及前端表示层。

目前主流深度学习框架中主要有三种自动微分技术:

  • 基于静态计算图的转换:将网络在编译时转换为静态数据流图,然后将链式法则应用于数据流图,并实现自动微分。

  • 基于动态计算图的转换:以操作符重载的方式记录网络在前向执行时操作轨迹,然后将链式法则应用于动态生成的数据流图,并实现自动微分。

  • 基于源码转换:该技术源以函数式编程框架为基础,以即时编译(JIT)的方式在中间表达(编译过程中程序的表达形式)上做自动微分变换,支持复杂控制流场景、高阶函数和闭包。

其中 TF 早期采用的是静态计算图,PyTorch 采用的是动态计算图,静态图能利用静态编译技术对网络性能进行优化,然而搭建网络或 Debug 非常复杂。动态图的使用非常便捷,但性能上难以做到极致的优化。

MindSpore 走的是另外一条路,即基于源码转换的自动微分。它又支持对自动控制流的自动微分,所以与 PyTorch 一样构建模型非常方便。同时 MindSpore 能对神经网络做静态编译优化,因此性能也非常优秀。

AI云开发平台ModelArts

ModelArts是面向开发者的一站式AI开发平台,为机器学习与深度学习提供海量数据预处理及半自动化标注、大规模分布式Training、自动化模型生成,及端-边-云模型按需部署能力,帮助用户快速创建和部署模型,管理全周期AI工作流。

ModelArts昇腾服务提供支持华为全栈AI的模型开发使能能力,用户可以使用ModelArts昇腾服务进行昇腾算子开发、模型开发、模型训练、模型推理等AI业务,产品内嵌MindSpore&TensorFlow AI引擎,底层提供鲲鹏&昇腾国产服务器。

  • 支持MindSpore/TensorFlow

ModelArts昇腾服务面向AI开发者提供在开发环境、训练流程基于昇腾910的模型训练;支持面向模型转换、模型推理流程基于昇腾310的模型推理。ModelArts支持基于昇腾AI框架:MindSpore&TensorFlow。

  • 预置算法

ModelArts目前提供丰富的预制算法,支持用户通过AI市场订阅之后,可以基于自己的业务数据进行二次训练,支持昇腾910训练->昇腾310推理以及GPU训练->昇腾310推理方式,涵盖图像分类、物体检测、文本分类等多类应用场景。

  • ModelArts自动学习

ModelArts自动学习能力,可根据用户标注数据全自动进行模型设计、参数调优、模型训练、模型压缩和模型部署全流程。无需任何代码编写和模型开发经验,即可利用ModelArts构建AI模型应用在实际业务中。

  • 可视化工作流

ModelArts提供从数据、算法、训练、模型、服务全流程可视化管理,无需人工干预,自动生成溯源图。您可选择任一对象,快速可视化了解相关信息

  • 可视化任务比对

ModeArts提供版本可视化比对功能,可帮助用户快速了解不同版本间的差异。

  • 模型评估可视化

模型训练完成后,ModelArts在常规的评价指标展示外,还提供可视化的模型评估功能,您可通过混淆矩阵和热力图形象地了解您的模型,进行评估模型或模型优化。

  • 使用本地IDE对接云上服务
华为云AI开发平台ModelArts除了在云上通过(管理控制台)界面操作外,同时也提供了Python SDK功能,您可通过SDK在任意本地IDE中使用Python访问ModelArts, 包括创建、训练模型,部署服务,更加贴近您的开发习惯。
  • AI模型市场

AI 市场是基于AI开发平台ModelArts构建的开发者生态社区。

8、清华大学

清华大学计算机系图形实验室宣布开源一个全新的深度学习框架:Jittor,中文名计图。

Jittor 是一个采用元算子表达神经网络计算单元、完全基于动态编译(Just-in-Time)的深度学习框架。

据介绍,Jittor 内部使用创新的元算子和统一计算图的深度学习框架。和 Numpy 相比,元算子在保证易用性的同时,能够实现更复杂、更高效的操作。而统一计算图则是融合了静态计算图和动态计算图的诸多优点,在易于使用的同时,提供高性能的优化。基于元算子开发的深度学习模型,可以被计图实时自动优化并且运行 CPU、GPU 等指定的硬件上。

使用辅助转换脚本,PyTorch 代码可以直接转换成 Jittor 模型。在参数保存和数据传输上,Jittor使用和 PyTorch 一样的 Numpy+pickle 协议,二者的模型可以相互加载和调用。

参考:

小结:

谁都想通过核心引擎控制整个生态系统,从而掌握话语权,把“别人的饭碗牢牢的端在自己手里”。

话说回来,机器学习的核心引擎开发难度是比较大的,而且离应用比较远赚钱不容易,国外开源的又成熟度更高、资源也比较丰富。要想获得大家的认可,既需要好的设计思想,过硬的技术实现,广泛的硬件支持,大量的扩展模块,还需要好的人品和踏实的服务,这注定是“前途是光明的,道路是曲折的”。

经过这些年的努力,尤其是人脸识别、监控等“集中力量办大事”的推动下,国内机器学习领域发展还是蛮快的。虽然大部分以应用为主,但上述提到的PaddlePaddle、Angel、MegEngine、MindSpore、Jittor也都哟各自的特色而且用于了生产系统,值得一试。除此之外,基于DSP/ASIC/FPGA/ARM的各种嵌入式AI引擎也是非常值得期待的,这个领域的硝烟正在燃起。

更多参考:

展开阅读全文
加载中
点击引领话题📣 发布并加入讨论🔥
0 评论
0 收藏
0
分享
返回顶部
顶部