加载中
一文读懂开源项目 OpenHarmony

开源项目 OpenHarmony 是什么 一图胜万语,开发者拿到OpenHarmony 2.0代码后跑起来的样子 OpenHarmony是自主研发、不兼容安卓的全领域下一代开源操作系统。 开放原子开源基金会(简称“基金会...

06/08 10:54
1.4W
图到文本生成中的结构信息保持

本论文由腾讯 AI Lab 主导,和厦门大学、西湖大学合作完成。作者提出基于“多视角重建”的损失函数提升文本生成的质量和忠实度,与此同时并没有增加任何模型参数。 Structural Information P...

ldc
2020/07/27 18:49
5.7K
神经机器翻译推断阶段信心校准研究

本论文由腾讯 AI Lab 和清华大学合作完成,作者提出了一种评估神经机器翻译模型在推断场景下信心校准偏差的方法,并发现Transformer模型的信心尽管在训练场景中校准较好,但是在推断场景中仍...

SongNet:硬格式控制下的文本生成

SongNet模型是腾讯AI Lab NLP中心自研的一套基于预训练语言模型的硬格式控制下的文本生成模型。它能接受任意指定的格式进行文本生成,例如生成歌词、唐诗宋词、莎士比亚十四行诗等。以下为论...

生成、删除和重写:提高对话生成中人物属性一致性的三级生成框架

本论文由腾讯AI Lab主导,与哈尔滨工业大学合作完成。作者提出了一种多阶段的对话回复生成框架。该方法删除了生成的回复中可能导致不一致的词语,并在此基础上重写,以生成高质量并且与人物属...

使用 Batch Normalization 防止变分自编码器中 KL 散度的消失

本论文由腾讯 AI Lab 主导,和佛罗里达大学合作完成。作者利用通过直接计算KL散度在数据集中的期望并使其有一个大于0的下界从而解决这个问题。作者基于此提出了BN-VAE,在编码器的输出使用b...

2020/07/24 08:22
4.2K
基于情景记忆激活与再巩固的持续关系学习

本文基于AAAI-2020论文《Continual Relation Learning via Episodic Memory Activation and Reconsolidation》,论文由清华大学和腾讯微信AI团队合作完成。 导语:在智能搜索、自动问答等现实...

利用非对话语料来丰富对话生成模型

本文基于ACL-2020论文《Diversifying Dialogue Generation with Non-Conversational Text》,论文作者是腾讯微信AI团队。 导言 基于序列到序列(seq2seq)的神经网络模型在开放领域对话生成的...

2020/07/22 08:27
5.9K
一种面向非自回归神经机器翻译的多模错误恢复学习机制

本文基于ACL 2020论文《Learning to Recover from Multi-Modality Errors for Non-Autoregressive Neural Machine Translation》撰写,论文作者为腾讯微信AI团队。 导语 非自回归神经机器翻译...

2020/07/21 08:44
9.4K

没有更多内容

加载失败,请刷新页面

没有更多内容

返回顶部
顶部