连击 天
fork: star:
1 引言 2024年2月1日,面壁智能与清华大学自然语言处理实验室共同开源MiniCPM系列端侧大模型,主体语言模型MiniCPM-2B仅有24亿(2.4B)的非词嵌入参数量,总计2.7B参数量。 经过SFT后,MiniC...
1 引言 Meta Llama 3.2多语言大型语言模型集合(LM)是一个1B和3B大小(文本输入/文本输出)的预训练和指令微调模型集合。Llama 3.2指令调整的纯文本模型针对多语言对话用例进行了优化,包括...
近期,由北大-兔展AIGC联合实验室共同发起的项目Open-Sora Plan在魔乐社区重磅发布。项目希望通过社区的力量复现OpenAI的Sora,共同推动人工智能技术的发展。 此次,魔乐社区为Open-Sora Pla...
1 引言 DCLM-7B是由苹果公司联合研究团队开发的一个开源AI语言模型,它基于PyTorch和OpenLM框架开发,采用decoder-only架构,上下文长度为2048,在53个自然语言理解任务上展现了出色的性能,...
1 引言 Qwen2.5是Qwen大型语言模型系列的最新成果。对于Qwen2.5,通义千问团队发布了从0.5到720亿参数不等的基础语言模型及指令调优语言模型。Qwen2.5相比Qwen2带来了以下改进: 显著增加知识...
引言 在人工智能的浪潮中,魔乐社区(Modelers)以其海量优质的AI模型库、庞大的数据集资源,以及直观易用的工具,逐渐成为开发者们追捧的热点。其中的应用开发套件openMind[i],为开发者在分...
引言 在人工智能的浪潮中,魔乐社区(Modelers)以其海量优质的AI模型库、庞大的数据集资源,以及直观易用的工具,逐渐成为开发者们追捧的热点。其中的应用开发套件openMind[1],为开发者在使...
引言 2024年6月30日,上海人工智能实验室发布InternLM2.5-7B系列模型,包括InternLM2.5-7B、InternLM2.5-7B-Chat和InternLM2.5-7B-Chat-1M。具体介绍如下: InternLM2.5-7B:在通用领域和领域...
在人工智能的浪潮中,深度学习开发套件 openMind Library,以其强大的功能和易用性,逐步成为AI开发者们的强力助手。本文将通过魔乐社区近期关注挺高的大模型平台魔乐社区,深入了解openMin...
在人工智能的浪潮中,魔乐社区以其海量优质的AI模型库、庞大的数据集资源,以及直观易用的工具,逐渐成为开发者们追捧的热点。拥有海量资源的魔乐社区,是如何确保资源的有序组织,提升开发者...
没有更多内容
加载失败,请刷新页面
没有更多内容
文章删除后无法恢复,确定删除此文章吗?
动弹删除后,数据将无法恢复
评论删除后,数据将无法恢复