小红书开源首个大模型,预训练未使用合成数据

小红书开源了首个大模型dots.llm1,小红书方面表示,dots.llm1是一个1420亿参数的混合专家模型(MoE),在推理过程中仅激活140亿参数,能保持高性能的同时大幅度降低训练和推理成本。此外,dots.llm1.ins在预训练阶段使用了11.2万亿的非合成数据,最终性能与阿里Qwen3-32b相比,在中英文、数学、对齐任务上表现接近。(财联社)

上一篇:

下一篇:

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

公众号
公众号
新媒体群
新媒体群
联系邮箱

1284674160@qq.com

分享本页
返回顶部
新媒体之家(狐呼网)免费入驻互联网领域个人自媒体,企业自媒体,媒体网站等。入驻合作可以联系:m1284674160