加载中
DeepSeek快速下载攻略

DeepSeek模型火爆全球,但无数国内开发者却在下载模型时苦不堪言,吐槽下载就像“用2G网下高清电影”。某大厂工程师反馈,从外网下载DeepSeek-R1模型,速度仅为2MB/s,断线重连的操作更是让人...

DeepSeek模型权重下载太慢?快来魔乐体验加速丝滑下载,和“龟速”说拜拜

兴冲冲准备好了部署DeepSeek 开始下模型权重了,结果...What! 下载速度慢到崩溃 有的才1-2MB/s,还多次中断!!! 下载稍大一点的模型怎么办? 别担心,魔乐社区来帮你! 带你体验超100MB/s的下...

02/14 15:50
101
仅用4T训练数据,节约75%以上训练成本,书生·浦语大模型3.0发布并上线魔乐社区

在人工智能蓬勃发展的时代,国产模型不断涌现且能力越来越强。前有DeepSeek-V3,凭借卓越性能和高性价比迅速火遍全球。紧随其后,2025年1月15日,上海人工智能实验室对书生大模型进行了重要版...

DeepSeek大模型微调实战(超详细实战篇)

1 简介 DeepSeek是由 深度求索 团队开发的大语言模型,本实验将基于deepseek-llm-7b-chat模型,在EmoLLM数据集进行微调,实现大模型能够以心理医生的口吻来回答我们的问题。 本实验基于trans...

DeepSeek大模型微调实战(理论篇)

1 简介 在大模型的微调过程中,**LoRA(低秩适配)**参数设置是提升训练效率和性能的关键。通过减少需更新的参数量,LoRA能够在维持模型性能的同时显著降低计算成本。 然而,LoRA并非唯一影响...

喜讯!魔乐社区荣获IT168年度开源卓越贡献奖

近日,业界知名IT垂直门户媒体IT168及旗下技术社区ITPUB联合发布2024年度“技术卓越奖”榜单。经过层层评选,魔乐社区荣获云计算类“年度开源卓越贡献奖”奖项。该奖项的获得,再一次证明了魔...

Megrez-3B-Omni,轻松实现端上图像、音频、文本极速推理

12月16日,无问芯穹宣布正式开源无问芯穹端侧解决方案中的全模态理解小模型Megrez-3B-Omni和它的纯语言模型版本Megrez-3B-Instruct。目前模型已在魔乐社区同步首发,欢迎大家来魔乐社区体验!...

Qwen2.5思维链微调代码实操 + 多卡Lora微调完整代码

作者:情感机器团队-陈少宏 邮箱:shaohon_chen@115lab.club 最近对于Scaling Law的讨论异常火热。包括ilya大神自己都下场演讲关于大模型数据规模碰壁的问题(参考:机器之心官网发文)。直觉...

文本生成音乐,MusicGen带您玩转音乐自由!

要说最近一两周AIGC领域最被关注的内容,非Suno AI莫属。 作为“音乐界的ChatGPT”,Suno AI最新推出的V3模型以其生成广播质量级别音乐的非凡能力火速引爆了音乐圈,网友们也纷开始放飞自我,...

1小时搞定魔乐平台AI应用的构建和离线复现

想象一下,只需一小时,你就能在魔乐平台上构建自己的AI应用,并在本地环境中完美复现。听起来是不是很诱人?今天,我们就来手把手教你如何快速上手魔乐社区的space服务,让你的AI创意变为现...

NPU 基于PEFT的模型微调实践教程

一、 PEFT框架简介 PEFT(Parameter-Efficient Fine-Tuning)是一种参数高效的微调方法,用于在预训练的深度学习模型上进行微小的参数调整以适应特定任务。目前与openMind Library联动使用时,...

魔乐社区(Modelers)多机多卡训练实践

当前,随着大模型参数规模的不断扩大,多机多卡分布式训练的重要性日益凸显。本指南旨在依托华为昇腾计算卡,提供一个双机16卡训练的详尽示例,更好地应对大模型的训练挑战。本次指南主要讲解...

没有更多内容

加载失败,请刷新页面

返回顶部
顶部