加载中
【深度学习】 神经网络为何非要激活函数?

作者 | Vandit Jain 编译 | 龚倩 编辑 | 丛末 来源 | AI科技评论 激活函数是神经网络中一个至关重要的概念,决定了某个神经元是否被激活,判断该神经元获得的信息是否有用,并决定该保留还是...

2020/04/26 20:27
102
从感知机到神经网络简略

最热门的深度学习,想必很多人都想了解学习,网络上也有不少资料;小编也希望可以从头开始,更为透彻地去理解原理机制,这样在日后可以在深度学习框架实战的学习上更为轻松。那我们就从头开始...

人人都能看懂的LSTM

来自 | 知乎 作者 | 陈诚 链接 | https://zhuanlan.zhihu.com/p/32085405 编辑 | 深度学习这件小事公众号本文仅作学术交流,如有侵权,请联系后台删除 这是在看了台大李宏毅教授的深度学习视...

人人都能看懂的 LSTM

来自 | 知乎 作者 | 陈诚 链接 | https://zhuanlan.zhihu.com/p/32085405 编辑 | 深度学习这件小事公众号 本文仅作学术交流,如有侵权,请联系后台删除 这是在看了台大李宏毅教授的深度学习视...

常用 Normalization 方法的总结与思考:BN、LN、IN、GN

作者:G-kdom 知乎链接:https://zhuanlan.zhihu.com/p/72589565 本文仅供学习参考,如有侵权,请联系删除! 常用的Normalization方法主要有:Batch Normalization(BN,2015年)、Layer Nor...

Yolov3&Yolov4核心基础知识详解

作者:江大白 知乎链接:https://zhuanlan.zhihu.com/p/143747206 本文仅供学习参考,如有侵权,请联系删除! 文章目录 1. 论文汇总 2. Yolov3核心基础内容 2.1 网络结构可视化 2.2 网络结构...

深入浅出Yolov3和Yolov4

来自 | 知乎 作者 | 江大白 链接 | https://zhuanlan.zhihu.com/p/143747206 因为工作原因,项目中经常遇到目标检测的任务,因此对目标检测算法会经常使用和关注,比如Yolov3、Yolov4算法。 ...

深度学习三人行(第11期)----CNN经典网络之GoogLeNet

上一期,我们一起学习了深度学习卷积神经网络中的经典网络之LeNet-5和AlexNet, 深度学习三人行(第10期)----CNN经典网络之LeNet-5和AlexNet 接下来我们一起学习下关于CNN中的另一个比较经典的...

深度学习算法(第30期)----降噪自编码器和稀疏自编码器及其实现

上期我们一起学习了深度学习中的可视化自编码器和无监督预训练的相关知识, 深度学习算法(第29期)----可视化自编码器和无监督预训练 今天我们一起学一下降噪自编码器和稀疏自编码器方面的知识...

由线性回归来理解深度学习的理论基础

作者:Ajit Jaokar 编译:DylanY 这会是一篇比较长的文章,本来应该是分几次来po,但考虑到这个话题的整体性,因此这里还是整理到一篇文章里,感兴趣的同学可以点个收藏慢慢看。 以下为作者原...

目标检测算法YOLOv4详解

一句话总结:速度差不多的精度碾压,精度差不多的速度碾压! YOLOv4是精度速度最优平衡, 各种调优手段是真香,本文主要从以下几个方面进行阐述: YOLOv4介绍 YOLOv4框架原理 BackBone训练策略...

CNN卷积神经网络之通俗理解!

定义: 简而言之,卷积神经网络(Convolutional Neural Networks)是一种深度学习模型或类似于人工神经网络的多层感知器,常用来分析视觉图像。卷积神经网络的创始人是着名的计算机科学家Yan...

卷积神经网络为什么能称霸计算机视觉领域?

来源:图灵人工智能 摘要:在机器视觉和其他很多问题上,卷积神经网络取得了当前最好的效果,它的成功促使我们思考一个问题,卷积神经网络为什么会这么有效?在本文中,将为大家分析卷积神经...

深度学习算法(第33期)----强化学习之神经网络策略学习平衡车

上期我们一起学习了强化学习入门的相关知识, 深度学习算法(第32期)----强化学习入门必读 今天我们学习下OpenAI工具包以及神经网络策略学习平衡车的相关知识。 OpenAI Gym 介绍 强化学习的一...

【Deep Learning】深度学习调参技巧的总结

编辑:Amusi | 来源:知乎 转自:cver https://www.zhihu.com/question/25097993 本文仅作为学术分享,如果侵权,联删。 深度学习调参有哪些技巧? 深度学习的效果很大程度上取决于参数调节的...

总结 | 深度学习损失函数大全

仅作学术分享,不代表本公众号立场,侵权联系删除 转载于:作者|mingo_敏,来源 https://blog.csdn.net/shanglianlm/article/details/85019768 tensorflow和pytorch很多都是相似的,这里以p...

2020/08/10 08:31
488
深度学习三人行(第15期)----基本RNN的Tensorflow实现

上期我们一起学习了RNN中输入输出任性的组合方式 深度学习三人行(第14期)----RNN输入输出的组合有多任性 原理学习了两期,今天我们一起看下在tensorflow中基本的RNN是怎么实现的。 首先,为了...

超全!19 种损失函数,你能认识几个?

点击上方“智能算法”,选择“星标”公众号 重磅干货,第一时间送达 作者:mingo_敏 编辑:深度学习自然语言处理小编zenRRan 链接: https://blog.csdn.net/shanglianlm/article/details/85...

深度学习算法(第27期)----栈式自编码器

上期我们一起学习了深度学习中的自编码器的相关知识, 深度学习算法(第26期)----深度网络中的自编码器 今天我们更进一步一起学一下栈式自编码器。 栈式自编码器 跟之前我们学过的其他神经网络...

深度学习算法(第22期)----RNN中的LSTM模块

上期我们一起学习了RNN为了防止过拟合的DropOut技术, 深度学习算法(第21期)----RNN中的Dropout技术 今天我们一起简单学习下RNN中的LSTM (Long Short-Term Memory)。 原始RNN的隐藏层只有一个...

没有更多内容

加载失败,请刷新页面

返回顶部
顶部