加载中
检索:Accuracy, Precision, Recall, MAP, MRR

假如 ,识别数据集中所有的飞机。 True Positives(TP):识别正确,系统认为是飞机,实际是飞机; True Negatives(TN):识别正确,系统认为不是飞机,实际不是飞机; False Positives(F...

2020/11/04 22:52
41
基于rasa构建faq

faq(frequency asked question), 常问问题,这类FAQ问题机器人,通过收集常见问题,以交互式方式实现人机问答。 rasa应用中涉及的文件有:config.yml, nlu.md, stories.md, domain.yml。新增...

yml
2020/10/17 15:12
316
http-post-get方法总结

1. Get : url 附带参数;可被缓存、请求保存到浏览器历史中;请求长度有限制;数据类型有限制 2. Post : url不附带参数;不可缓存;长度无限制;数据类型无限制,可以是二进制;更安全;必须...

2020/10/14 17:48
11
根据Chatito生成rasa nlu训练数据

步骤如下: 1. 本地安装node.js 2. 安装chatito。出现error,提示没有package.json文件, 则根据npm init生成用户下的package.json npm i chatito --save 3. 在包含有.chatito文件下执行生成数...

2020/10/12 08:53
551
win10下rasa安装总结

1. rasa安装pip install rasa, 需要基础环境tensorflow,vs等。支持gpu的情况下,安装gpu。 2. 为避免影响到其他项目,先创建虚拟环境, 安装tensorflow-gpu(conda install tensorflow-gpu=...

2020/09/23 22:33
252
bert图文

bert: Bidirectional Encoder Representations from Transformers 双向transformer encoder表示,参照了李宏毅老师的ppt, 如图。 重点汇总如下: 1. 包含Pre-training, fine-tuning 2种任务。...

2020/09/21 11:49
49
ELMo图文

ELMo(embedding from language model) 1. 基于LSTM, 请走https://my.oschina.net/u/872413/blog/4529721 2. 它是在一个训练好的语言模型提供上下文无关的词向量基础上再进行上下文相关的双层...

2020/09/19 17:55
29
list的extend,append,insert,+

1. extend, 添加序列 list.extend(sequence) 2. append, 添加对象 list.append(object) 3. insert, 插入元素 list.insert(1, 'a') 4. +,列表相加 list3 = list1 + list2 list1 = [1, 2] lis...

2020/09/18 21:50
0
Positional Encoding

公式: 上式中 pos 指的是一句话中某个词的位置,取值范围是 [0, max_sequence_length),i 指的是词向量的维度序号,取值范围是 [0, embedding_dimension/2),dmodel 指的是 embedding_dime...

2020/09/17 22:48
102
Transformer图文,入坑

1、与RNN encoder-decoder比较 靠attention机制,不使用rnn和cnn,并行度高 通过attention,抓长距离依赖关系比rnn强 transformer的特征抽取能力比RNN系列模型好,seq2seq最大的问题将encod...

Attention-based Model 理解

1. Attention-based Model 仅仅是在原有model的基础上加入attention机制,是一个相似性的度量,当前输入与目标越相似,当前输入W越大。 Tips: 1) 没有attention机制的encoder-decoder结构通常...

pickle, assert

1. pickle 序列化后为字节类型数据,open时为rb+ import pickle data = ['aa', 'bb', 'cc'] with open('tmp.pkl', 'wb') as f: pickle.dump(data, f) with open('tmp.pkl', 'rb+') as f: da....

2020/09/10 10:39
0
Seq2Seq: RNN Encoder-Decoder 总结

一、 基础 Seq2Seq应用Encoder, Decoder实现,在传统的RNN基础上做了优化, 输入输出长度不再要求一致。其工作原理如下图所示。 1. Encoder, Decoder均是RNN,其实现是LSTM或GRU。 2. Encod...

2020/09/08 21:41
413
CrossEntropyLoss总结

官方: This criterion combines nn.LogSoftmax() and nn.NLLLoss() in one single class. Pytorch中CrossEntropyLoss()函数的主要是将softmax-log-NLLLoss合并到一块得到的结果。     1...

2020/09/04 22:12
26
Word2Vec论文总结和实现

一、总结 1. word2vec可以在百万数量级的词典和上亿的数据集上进行高效的训练;该工具得到词向量(word embedding)的训练结果,可以很好的度量词与词之间的相似性。 2. word2vec算法背后时一...

NPLM(Neural Probabilistic Language Model)论文总结和实现

一、NPLM(NNLM)总结 1. 含义:包含n个词的语句,通过前n-1个词,预测第n个词。通过词向量形式,把词转换为张量,根据词序列的联合概率,学习词张量和概率函数的参数。 2. 概率函数为 y = ...

2020/08/30 22:45
100
cat、stack用法

1. dim=-1,基于倒数第一维, dim=-2, 基于倒数第二维,以此类推。 2. cat:不增加维度;stack增加维度。 3. cat: max(dim) = X_dim - 1, stack: max(dim) = X_dim 4. x(m, n) y(m, n) 则cat...

2020/08/26 23:26
0
LSTM总结及sin与cos拟合应用

一、LSTM总结 RNN在实际应用中,无法处理无关的信息,很难处理长距离的依赖。LSTM思路,在原始RNN的隐藏层只有一个状态h,它对短期的输入非常敏感,那么,我们再增加一个状态c, 它来保存长期...

cos
2020/08/25 23:12
49
RNN总结及sin与cos拟合应用

一、RNN总结 一个简单的RNN模型由输入层,一个隐藏层,一个输出层组成。 我们给出这个抽象图对应的具体图,能够很清楚的看到,上一时刻的隐藏层是如何影响当前时刻的隐藏层的。 基于RNN还可以...

ML & DL 环境搭建

1. 下载miniconda 官网: https://docs.conda.io/en/latest/miniconda.html 下载: https://repo.anaconda.com/miniconda/Miniconda3-latest-Windows-x86_64.exe 下载速度超级慢。 安装步骤参...

没有更多内容

加载失败,请刷新页面

返回顶部
顶部