加载中
基于openMind的MiniCPM PyTorch模型微调最佳实践

1 引言 2024年2月1日,面壁智能与清华大学自然语言处理实验室共同开源MiniCPM系列端侧大模型,主体语言模型MiniCPM-2B仅有24亿(2.4B)的非词嵌入参数量,总计2.7B参数量。 经过SFT后,MiniC...

Llama-3.2-3B-Instruct PyTorch模型微调最佳实践

1 引言 Meta Llama 3.2多语言大型语言模型集合(LM)是一个1B和3B大小(文本输入/文本输出)的预训练和指令微调模型集合。Llama 3.2指令调整的纯文本模型针对多语言对话用例进行了优化,包括...

首发!Open-Sora Plan来袭,魔乐社区带您探索新境界

近期,由北大-兔展AIGC联合实验室共同发起的项目Open-Sora Plan在魔乐社区重磅发布。项目希望通过社区的力量复现OpenAI的Sora,共同推动人工智能技术的发展。 此次,魔乐社区为Open-Sora Pla...

DCLM-7B PyTorch模型微调入门实战

1 引言 DCLM-7B是由苹果公司联合研究团队开发的一个开源AI语言模型,它基于PyTorch和OpenLM框架开发,采用decoder-only架构,上下文长度为2048,在53个自然语言理解任务上展现了出色的性能,...

Qwen2.5 PyTorch模型微调入门实战

1 引言 Qwen2.5是Qwen大型语言模型系列的最新成果。对于Qwen2.5,通义千问团队发布了从0.5到720亿参数不等的基础语言模型及指令调优语言模型。Qwen2.5相比Qwen2带来了以下改进: 显著增加知识...

快速入门:如何在魔乐社区上传数据集

引言 在人工智能的浪潮中,魔乐社区(Modelers)以其海量优质的AI模型库、庞大的数据集资源,以及直观易用的工具,逐渐成为开发者们追捧的热点。其中的应用开发套件openMind[i],为开发者在分...

快速入门:魔乐社区模型上传分享全指南

引言 在人工智能的浪潮中,魔乐社区(Modelers)以其海量优质的AI模型库、庞大的数据集资源,以及直观易用的工具,逐渐成为开发者们追捧的热点。其中的应用开发套件openMind[1],为开发者在使...

实践分享|探索书生·浦语2.5(InternLM2.5):PyTorch模型微调的最佳实践

引言 2024年6月30日,上海人工智能实验室发布InternLM2.5-7B系列模型,包括InternLM2.5-7B、InternLM2.5-7B-Chat和InternLM2.5-7B-Chat-1M。具体介绍如下: InternLM2.5-7B:在通用领域和领域...

分享一个AI开发者的强力助手:openMind Library

在人工智能的浪潮中,深度学习开发套件 openMind Library,以其强大的功能和易用性,逐步成为AI开发者们的强力助手。本文将通过魔乐社区近期关注挺高的大模型平台魔乐社区,深入了解openMin...

分享 | openMind Hub Client:AI平台的高效客户端工具

在人工智能的浪潮中,魔乐社区以其海量优质的AI模型库、庞大的数据集资源,以及直观易用的工具,逐渐成为开发者们追捧的热点。拥有海量资源的魔乐社区,是如何确保资源的有序组织,提升开发者...

没有更多内容

加载失败,请刷新页面

没有更多内容

返回顶部
顶部