加载中
开源代码生成模型 StarCoder 2 全新上线!

BigCode 正式推出 StarCoder2 —— 一系列新一代的开放源代码大语言模型 (LLMs)。这些模型全部基于一个全新、大规模且高品质的代码数据集 The Stack v2 进行训练。我们不仅公开了所有的模型和...

Hugging Face 表情包来啦!

小编有一个朋友,微信聊基本不回复文字,内容和情绪都化身成表情包直接回复,并且一气呵成、自带上下文衔接。你身边有这样的朋友吗? 作为梦想成为第一家以表情符号上市的公司,以及在社交平...

人工智能水印技术入门:工具与技巧

近几个月来,我们看到了多起关于“深度伪造 (deepfakes)”或人工智能生成内容的新闻报道:从 泰勒·斯威夫特的图片、汤姆·汉克斯的视频 到 美国总统乔·拜登的录音。这些深度伪造内容被用于...

社区供稿 | 1024 分辨率下最快模型,字节跳动文生图开放模型 SDXL-Lightning 发布

作者|字节跳动智能创作团队 很高兴跟大家分享我们最新的文生图模型 —— SDXL-Lightning,它实现了前所未有的速度和质量,并且已经向社区开放。 模型: https://huggingface.co/ByteDance/S...

社区供稿 | RAG 领域的新宠:为什么 AI 圈都在谈论 Jina ColBERT?

在 RAG (检索增强生成)领域,选对向量模型至关重要,它基本就决定了 RAG 系统的“天花板”,也因此,向量模型的选择总是业界的热门讨论话题。 最近,Jina AI 在 Hugging Face 上推出的 Jina...

使用 Hugging Face 微调 Gemma 模型

来自 Google Deepmind 开放权重的语言模型 Gemma 现已通过 Hugging Face 面向更广泛的开源社区开放。该模型提供了两个规模的版本:2B 和 7B 参数,包括预训练版本和经过指令调优的版本。它在...

小红书 x Hugging Face 邀请你一起晒「创意新春照」

不藏了,近期全网爆火的AI 写真项目 InstantID,正是来自小红书社区技术创作发布团队。 为了迎接龙年春节的到来,我们的InstantID全新推出「Spring Festival」新春风格!并与著名开源模型社区...

欢迎 Gemma: Google 最新推出开源大语言模型

今天,Google 发布了一系列最新的开放式大型语言模型 —— Gemma!Google 正在加强其对开源人工智能的支持,我们也非常有幸能够帮助全力支持这次发布,并与 Hugging Face 生态完美集成。 Ge...

开源大语言模型作为 LangChain 智能体

概要 开源大型语言模型 (LLMs) 现已达到一种性能水平,使它们适合作为推动智能体工作流的推理引擎: Mixtral 甚至在我们的基准测试中 超过了 GPT-3.5,并且通过微调,其性能可以轻易的得到进一...

使用 🤗 Optimum Intel 在英特尔至强上加速 StarCoder: Q8/Q4 及投机解码

引言 近来,随着 BigCode 的 StarCoder 以及 Meta AI 的 Code Llama 等诸多先进模型的发布,代码生成模型变得炙手可热。同时,业界也涌现出了大量的致力于优化大语言模型 (LLM) 的运行速度及...

LLaMA 2 - 你所需要的一切资源

摘录 关于 LLaMA 2 的全部资源,如何去测试、训练并部署它。 LLaMA 2 是一个由 Meta 开发的大型语言模型,是 LLaMA 1 的继任者。LLaMA 2 可通过 AWS、Hugging Face 等提供商获取,并免费用于...

听说有 Hugging Face 陪伴的春节,是这样的…

辞旧迎新春节到,家家户户好热闹。Hugging Face 中国团队成员祝各位社区成员们新春快乐,万事如意! 过去的一年我们持续看到 AI 技术的腾飞和发展,以及诸多机构为开源 AI 作出巨大的贡献。非...

扩展说明: 指令微调 Llama 2

这篇博客是一篇来自 Meta AI,关于指令微调 Llama 2 的扩展说明。旨在聚焦构建指令数据集,有了它,我们则可以使用自己的指令来微调 Llama 2 基础模型。 目标是构建一个能够基于输入内容来生...

句子嵌入: 交叉编码和重排序

这个系列目的是揭开嵌入的神秘面纱,并展示如何在你的项目中使用它们。第一篇博客介绍了如何使用和扩展开源嵌入模型,选择现有的模型,当前的评价方法,以及生态系统的发展状态。第二篇博客将...

全世界 LoRA 训练脚本,联合起来!

太长不看版 我们把 Replicate 在 SDXL Cog 训练器中使用的枢轴微调 (Pivotal Tuning) 技术与 Kohya 训练器中使用的 Prodigy 优化器相结合,再加上一堆其他优化,一起对 SDXL 进行 Dreambooth...

Jina AI 发布中英和英德双语 8K 向量模型,百万 Token 大放送!

文章 亮点提前看 双语模型支持:继 8k 向量模型在 Huggingface 突破百万下载后,Jina Embeddings 系列又开源了中英、英德双语 8k 向量模型,分别为 jina-embeddings-v2-zh 和 jina-embedding...

社区供稿 | OpenCSG 解密代码生成模型 StarCoder VS CodeLlama

01 背景 2023年可以称之为大模型元年,也是AI模型在开源历史上最受关注的一年。各大企业、机构、高校纷纷发布了自研大模型,展示多年来AI能力的积累和从量变到质变的过程。大模型的出现突破了...

社区供稿 | Mixtral-8x7B Pytorch 实现

0.前言 本文从代码角度来谈下 Mixtral 8x7B 混合专家Pytorch的实现 1.论文概述 Mixtral-8x7B 引爆了MoE的技术方向,更多针对MoE优化的Trick出现,回归模型本身来解析: Mixtral 8x7B 采用了s...

社区供稿 | 新一代通用向量模型 BGE-M3:一站式支持多语言、长文本和多种检索方式

Highlight: BGE-M3支持超过100种语言的语义表示及检索任务,多语言、跨语言能力全面领先(Multi-Lingual) BGE-M3最高支持8192长度的输入文本,高效实现句子、段落、篇章、文档等不同粒度的检...

随机 Transformer

在这篇博客中,我们将通过一个端到端的示例来讲解 Transformer 模型中的数学原理。我们的目标是对模型的工作原理有一个良好的理解。为了使内容易于理解,我们会进行大量简化。我们将减少模型...

没有更多内容

加载失败,请刷新页面

返回顶部
顶部