加载中
ICLR 2020 | 抛开卷积,multi-head self-attention能够表达任何卷积操作

近年来很多研究将nlp中的attention机制融入到视觉的研究中,得到很不错的结果,于是,论文侧重于从理论和实验去验证self-attention可以代替卷积网络独立进行类似卷积的操作,给self-attentio...

Selenium系列(十三) - 自动化必备知识之Xpath的详细使用

如果你还想从头学起Selenium,可以看看这个系列的文章哦! https://www.cnblogs.com/poloyy/category/1680176.html 其次,如果你不懂前端基础知识,需要自己去补充哦,博主暂时没有总结(虽然...

2019/04/10 10:10
42
TensorBoard中HISTOGRAMS和DISTRIBUTIONS图形的含义

前言 之前我都是用TensorBoard记录训练过程中的Loss、mAP等标量,很容易就知道TensorBoard里的SCALARS(标量)图是怎么看的(其中横纵轴的含义、Smoothing等)。 最近在尝试模型压缩,其中的...

2019/04/10 10:10
65
我的Keras使用总结(4)——Application中五款预训练模型学习及其应用

  本节主要学习Keras的应用模块 Application提供的带有预训练权重的模型,这些模型可以用来进行预测,特征提取和 finetune,上一篇文章我们使用了VGG16进行特征提取和微调,下面尝试一下其...

【NLP面试QA】预训练模型

[TOC] 自回归语言模型与自编码语言 自回归语言模型 通过给定文本的上文,对下一个字进行预测 优点:对文本序列联合概率的密度估计进行建模,使得该模型更适用于一些生成类的NLP任务,因为这些...

2019/04/10 10:10
143
数据挖掘入门系列教程(七点五)之神经网络介绍

[TOC] 数据挖掘入门系列教程(七点五)之神经网络介绍 这篇博客是是为了下一篇博客“使用神经网络破解验证码”做准备。主要是对神经网络的原理做介绍。同时这篇博客主要是参考了西瓜书,如果...

2019/04/10 10:10
38

没有更多内容

加载失败,请刷新页面

没有更多内容

返回顶部
顶部