登录社区云,与社区用户共同成长
邀请您加入社区
最新网址:https://docs.ai-thinker.com/tools
最新网址:
开发工具清单 | 安信可科技 https://docs.ai-thinker.com/tools
有“AI”的1024 = 2048,欢迎大家加入2048 AI社区
更多推荐
Redis100篇 - Redis面试场景题 怎么设计一个高可用的Redis缓存系统
KMP OpenHarmony 数据映射库示例 - 跨平台数据映射解决方案
稀疏混合专家(Sparse MoE)架构论文全景
稀疏MoE架构已成为解决大模型"规模-效率"困境的主流方案,从1991年的理论构想,到2017年的技术突破,再到2024年的百万专家模型,论文数量已达数百篇。上述仅列举了具有里程碑意义的关键论文,完整的研究谱系还包括更多关于训练稳定性、推理优化、模型压缩等方向的工作。若需特定领域(如计算机视觉、多模态)的稀疏MoE论文或最新研究进展,可进一步查询相关专业论文数据库。
扫一扫分享内容
所有评论(0)