小红书开源了首个大模型dots.llm1,小红书方面称,dots.llm1是一个1420亿参数的混合专家模型(MoE),在推理过程中仅激活140亿参数,能保持高性能的同时大幅度降低训练和推理成本。
新华财经|2025年06月10日
阅读量:
暂无详文
新华财经声明:本文内容仅供参考,不构成投资建议。投资者据此操作,风险自担。













