加载中
TransH

为了解决TransE模型在处理一对多 、 多对一 、多对多复杂关系时的局限性,TransH模型提出让一个实体在不同的关系下拥有不同的表示。如下公式所示,对于关系 r r r,TransH模型同时使用平移向...

06/15 21:46
0
python中yield的用法

在 Python 开发中,yield 关键字的使用其实较为频繁,例如大集合的生成,简化代码结构、协程与并发都会用到它。 生成器 如果在一个方法内,包含了 yield 关键字,那么这个函数就是一个「生成...

06/15 21:46
0
ps修改证件照的底色

本教程使用的原图如下,将其换成红色背景: 我相信,很多人都会换背景,但是在总会遇到对头发边缘的处理,头发边缘处理不好,照片会很难看。本教程主要针对头发边缘问题进行了处理。 具体步骤...

06/15 21:46
0
记录一次文件系统损坏的修复

使用ls或者rm命令出现错误: 类似于input/output error, 应该是文件系统出现错误。 用fsck.ext4 -y /dev/sda2修复是报如下信息: Could this be a zero-length partition 而且修复明显没有进...

06/15 21:46
0
elasticsearch dump 教程

下载安装 首先需要自行下载并安装node。 然后下载elasticsearch-dump,elasticsearch-dump-master.tar.gz然后解压:tar -xvf elasticsearch-dump-master.tar.gz -C ~/app/ 然后执行sudo ln -...

06/15 21:46
0
RuntimeError: CUDA out of memory. Tried to allocate 98.00 MiB (GPU 0; 31.75 GiB total capacity;

在运行pytorch程序时,出现GPU内存溢出,使用nvidia-smi查看显卡只用了一个: 因此,可以切换到其他显卡上: 在程序最上方添加: import os os.environ["CUDA_VISIBLE_DEVICES"] = '1' impo...

06/15 21:46
72
Batch Norm常用方法

在运用一些机器学习算法的时候不可避免地要对数据进行特征缩放(feature scaling),比如:在随机梯度下降(stochastic gradient descent)算法中,特征缩放有时能提高算法的收敛速度。 特征...

06/15 21:46
0
【转】自然语言系列学习之表示学习与知识获取(八)利用远程监督多实例的关系抽取

下面介绍下如何利用远程监督多实例进行关系抽取。前文有提到到当利用文本进行关系抽取,基本思想是利用知识图谱中,如(下图)任意两个实体同时在句子中出现: 我们把句子当成是两个实体关系...

06/15 21:46
0
PyTorch教程(九):损失函数与Loss的梯度

均方差Mean Squared Error(MSE) MSE基本形式: l o s s = ∑ [ y − ( x w + b ) ] 2 loss = \sum[y-(xw+b)]^2 loss=∑[y−(xw+b)]2 这里的模型使用非常简单的线性感知机,如果使用其他的网...

06/15 21:46
0
【转】自然语言系列学习之表示学习与知识获取(五)融合文本和知识,利用cnn方法进行关系抽取

本文重点放在怎么利用知识表示学习,辅助我们进行关系抽取,首先介绍如何利用分布式表示去融合知识和文本进行文本的抽取。 前文提到利用知识图谱学习了知识表示,就可以预测任意两个实体之间...

06/15 21:46
0
逻辑回归与线性回归

1. 线性回归 1.1概念 对于一组特征,使用线性方程来进行拟合,对结果进行预测,公式如下: h θ ( X ) = θ T X = θ 0 X 0 + θ 1 X 1 + ⋅ ⋅ ⋅ + θ n X n θ = ( θ 0 , θ 1 , θ 2 , ...

06/15 21:46
0
机器学习(四) 下采样和上采样

查看数据样本 import pandas as pd import matplotlib.pyplot as plt import numpy as np %matplotlib inline data = pd.read_csv("./data/creditcard.csv") data.head() 这个数据,并不是...

06/15 21:46
0
PyTorch教程(十一):多输出的感知机以及梯度

上一节中介绍了单层感知机,感知机的输出节点只有一个,只有 O 0 O_0 O0没有 O 1 O_1 O1。对于单层感知机的梯度下降公式如下: ∂ E ∂ w j 0 = ( O 0 − t ) ∗ O 0 ( 1 − O 0 ) x j 0 \f...

06/15 21:46
0
自然语言系列学习之表示学习与知识获取(七)利用关系路径进行关系抽取

接下来介绍另外一个方向是如何更好的利用知识图库里关系路径的信息进行关系抽取。 有一个非常直观的例子介绍关系路径的好处,如电影阿甘正传(上图),我们如果想要知道阿甘正传的语言是什么...

06/15 21:46
0
PyTorch教程(七):属性统计

范数 1-范数: ∥ x ∥ 1 = ∑ i = 1 N ∣ x i ∣ \left \| x \right \|_1=\sum_{i=1}^N\left| x_i \right| ∥x∥1=∑i=1N∣xi∣ 即向量元素绝对值之和。 import torch a = torch.full([8],...

06/15 21:45
0
TransE

网络上已经存在了大量知识库(KBs),比如OpenCyc,WordNet,Freebase,Dbpedia等等。这些知识库是为了各种各样的目的建立的,因此很难用到其他系统上面。为了发挥知识库的图(graph)性,也...

06/15 21:45
0
PyTorch教程(六):算数运算

import torch a = torch.rand(3,4) # tensor([[0.0422, 0.9152, 0.5486, 0.8753], # [0.3918, 0.6056, 0.0634, 0.9498], # [0.4444, 0.2209, 0.8165, 0.1533]]) b = torch.rand(4) # tensor...

06/15 21:45
0
PyTorch教程(八):常见激活函数与Loss的梯度

如果不用激活函数,每一层输出都是上层输入的线性函数,无论神经网络有多少层,输出都是输入的线性组合,这种情况就是最原始的感知机。 如果使用的话,激活函数给神经元引入了非线性因素,使...

06/15 21:45
0
PyTorch教程(一):张量数据类型

python PyTorch int IntTensor of size() float FloatTensor of size() Int array IntTensor of size[d1,d2,…] Float array FloatTensor of size [d1,d2,…] string – 需要注意的是,pytho...

06/15 21:45
0
PyTorch教程(三):索引与切片

a = torch.rand(4,3,28,28) # 4张图片,3通道,高度28,宽度28 a[0].shape # torch.Size([3, 28, 28]) 表示第0张图片的shape是3通道,高度28,宽度28 a[0,0].shape # torch.Size([28, 28])...

06/15 21:45
0

没有更多内容

加载失败,请刷新页面

返回顶部
顶部