Hugging News #0821: Hugging Face 完成 2.35 亿美元 D 轮融资

每一周,我们的同事都会向社区的成员们发布一些关于 Hugging Face 相关的更新,包括我们的产品和平台更新、社区活动、学习资源和内容更新、开源库和模型更新等,我们将其称之为「Hugging New...

08/28 18:00
32
社区供稿 | FaceChain 开源项目原理解析

一、背景说明 各类 AI 写真软件由于其精准的个人形象+精美的生成效果引爆了朋友圈传播,证件照满足了用户刚需,古装照等风格照满足了用户“美照”的需求。 FaceChain 是一个可以用来打造个人...

08/25 18:00
251
社区供稿 | 推理 1760 亿参数的 BLOOMZ,性能时延仅 3.7 秒

编者按: 本文作者是 Hugging Face 的机器学习工程师 Régis Pierrard,并于 2023 年 3 月 28 日发布于Hugging Face Blog[1]。感谢 Régis Pierrard 授权我们翻译和转发本文。 本文介绍了如何...

08/24 19:00
27
使用 AutoGPTQ 和 transformers 让大语言模型更轻量化

大语言模型在理解和生成人类水平的文字方面所展现出的非凡能力,正在许多领域带来应用上的革新。然而,在消费级硬件上训练和部署大语言模型的需求也变得越来越难以满足。 🤗 Hugging Face...

08/24 19:00
442
使用 🤗 Transformers 优化文本转语音模型 Bark

🤗 Transformers 提供了许多最新最先进 (state-of-the-art, SoTA) 的模型,这些模型横跨多个领域及任务。为了使这些模型能以最佳性能运行,我们需要优化其推理速度及内存使用。 🤗 Hugg...

08/23 19:00
480
使用 DPO 微调 Llama 2

简介 基于人类反馈的强化学习 (Reinforcement Learning from Human Feedback,RLHF) 事实上已成为 GPT-4 或 Claude 等 LLM 训练的最后一步,它可以确保语言模型的输出符合人类在闲聊或安全性...

08/22 18:00
828
Hugging News #0821: 新的里程碑:一百万个代码仓库!

每一周,我们的同事都会向社区的成员们发布一些关于 Hugging Face 相关的更新,包括我们的产品和平台更新、社区活动、学习资源和内容更新、开源库和模型更新等,我们将其称之为「Hugging New...

08/21 23:59
66
手把手教你使用人工智能生成游戏 3D 素材

引言 生成式 AI 已成为游戏开发中艺术工作流的重要组成部分。然而,正如我在之前的文章: 《AI 制作 3D 素材|基于 AI 5 天创建一个农场游戏,第 3 天》中描述的,从文本到 3D 的实用性仍落后...

08/19 00:00
4.2K
社区供稿 | PEFT: Prompt 系列高效调参原理解析

前言 本系列围绕 PEFT 内置七种主流高效调参方法进行原理解析,本文先介绍相关基本概念,再对本期提到的四种 Prompt 技术(Prefix Tuning、P-Tuning、Prompt Tuning、P-Tuning v2)从技术背景...

08/18 11:31
310
一条提示词等同于多少个数据点?

数据点(data points)通常用于描述单个信息单位或观测值,在本文中,它被用来量化“提示词”方法相对于传统方法的效率和效果。文章比较了两种训练(微调)机器学习模型的方法:一种是使用提...

08/17 00:00
4.2K
社区供稿 | 基于 LoRA 的 RLHF: 记一次不太成功但有趣的百川大模型调教经历

项目地址:https://github.com/beyondguo/LLM-Tuning 众所周知,整个 RLHF (基于人类反馈的强化学习) 分为这么三步: SFT (Supervised Fine-Tuning): 有监督的微调,使用正常的 instruction ...

08/16 00:00
1.9K
关于 Llama 2 的一切资源,我们都帮你整理好了

Llama 2 是一个由 Meta 开发的大型语言模型,是 LLaMA 1 的继任者。Llama 2 可通过 AWS、Hugging Face 获取,并可以自由用于研究和商业用途。Llama 2 预训练模型在 2 万亿个标记上进行训练,...

08/16 00:00
1.6K
Hugging News #0814: Llama 2 学习资源大汇总 🦙

每一周,我们的同事都会向社区的成员们发布一些关于 Hugging Face 相关的更新,包括我们的产品和平台更新、社区活动、学习资源和内容更新、开源库和模型更新等,我们将其称之为「Hugging New...

08/15 00:00
166
社区供稿 | Hugging Face 加入 PyTorch 基金会,成为首要成员

今天,作为一个深度学习社区的中立家园,PyTorch 基金会宣布 Hugging Face 已加入为首要成员。 Hugging Face 一直是 PyTorch 生态系统的长期支持者和贡献者,通过提供强大的模型和资源加速了...

08/11 19:00
17
TRL 正式推出,来训练你的首个 RLHF 模型吧!

正式向大家介绍 TRL——Transformer Reinforcement Learning。这是一个超全面的全栈库,包含了一整套工具用于使用强化学习 (Reinforcement Learning) 训练 transformer 语言模型。从监督调优...

08/10 19:00
187
社区供稿 | 源码解析ChatGLM2多轮对话训练方法的不足,以及改进方法

01 前言 🎉Firefly项目支持微调ChatGLM2模型啦,我们实现了一种比ChatGLM2官方更加充分高效的多轮对话训练方法,并且沿袭了官方的数据组织格式。 在此之前,很多同学询问Firefly项目是否支...

08/09 19:00
994
Hugging Face 的文本生成和大语言模型的开源生态

[更新于 2023 年 7 月 23 日: 添加 Llama 2。] 文本生成和对话技术已经出现多年了。早期的挑战在于通过设置参数和分辨偏差,同时控制好文本忠实性和多样性。更忠实的输出一般更缺少创造性,并...

08/09 19:00
1.3K
社区活动 | “中文 AI 微小说大赛”正式开启报名!

社区活动 | “中文 AI 微小说大赛”正式开启报名! , 发表于 , ,

08/08 18:00
103
社区供稿 | Hugging Face AI 开源游戏竞赛参与过程纪录

记录一个零代码基础零游戏开发经验的个人参赛者,通过和 ChatGPT 的对话,一步步向前冒险和探索,最终完成自我 Expanding 的 48 小时。 DAY 1 参赛背景 去年底和 Hugging Face 有一次小小的合...

08/08 18:00
57
【不要】重复自己*——如何为现代机器学习设计开源库

不要重复自己* 如何为现代机器学习设计开源库 🤗 Transformers 设计理念 “不要重复自己 (Don’t Repeat Yourself)” ,或 DRY,是广为人知的软件开发原则。该原则出自《程序员修炼之道: 从...

08/04 18:00
87

没有更多内容

加载失败,请刷新页面