首页 > 快讯 > 正文

小红书开源了首个大模型dots.llm1,小红书方面称,dots.llm1是一个1420亿参数的混合专家模型(MoE),在推理过程中仅激活140亿参数,能保持高性能的同时大幅度降低训练和推理成本。

新华财经|2025年06月10日
阅读量:

暂无详文

新华财经声明:本文内容仅供参考,不构成投资建议。投资者据此操作,风险自担。
传播矩阵
支付成功!
支付未成功