GPU 开源生态挑战赛 - 赛题二与 Issue 对应清单
·
这个list仅提供参考,赛题二是一个较为开放的命题,范围并不限于下文所提到的方向。本文档用于帮助参赛选手快速查找并选择适合的赛题方向与对应的 Issue。 所有任务均需以 Issue + PR 的形式提交,且 PR 必须引用对应的 Issue(例如在对应issue评论PR的link),方可计入有效成果。
文档类赛题(Documentation Track)
适合对系统架构、软件安装、运行指南、生态兼容性分析等方向感兴趣的参赛者。
| 序号 | 赛题名称 | Issue / 仓库 | 简介 |
|---|---|---|---|
| 1 | 示例:MinerU 上游社区支持 MACA 的使用文档 (选手可参考) | GPUApps #1 | 在 MinerU 上游仓库编写并验证 MACA 3.0 环境下的安装与使用指南 |
| 2 | MACA 软件栈开发环境配置说明 | (待创建) | 编写基于 MACA 环境的开发配置与调试指南 |
| 3 | InfiniCore 算子开发文档整理 | (待创建) | 对 InfiniCore 项目中算子适配 MACA 的过程进行文档化说明 |
| 4 | MACA 插件生态兼容性报告 | (待创建) | 对 MACA 与主流深度学习框架插件(PyTorch、TensorRT 等)的兼容性进行调研与文档总结 |
| 5 | 分布式推理环境搭建与验证指南 | (待创建) | 整理基于多 GPU 的推理部署方案,输出安装与性能验证手册 |
| 6 | Kernel Library 重构方案说明 | GPUKernelContest #12 | 针对内核拆包(packaging split)方案编写技术说明与 RFC 跟踪文档 |
| 7 | 自主选题:文档贡献与改进 | (开放类) | 参赛者可在任一公开 Issue 中选择合适主题(如文档补充、优化等),经赛题组确认后即可作为正式参赛方向 |
代码类赛题(Code Implementation Track)
适合有一定编程经验的选手,聚焦模型迁移、算子适配、性能优化等方向。
| 序号 | 赛题名称 | Issue / 仓库 | 简介 |
|---|---|---|---|
| 1 | InfiniCore 算子迁移至 MACA 软件栈 | GitHub: InfiniCore #TASK | 将部分 CUDA 算子迁移至国产 MACA 软件栈,提升兼容性与性能 |
| 2 | vLLM 模型适配至 MACA 平台 | MACA #7 | 完成 vLLM 在国产算力平台上的迁移、验证与性能优化 |
| 3 | 修复平台 topksoftmax CPU 版本运行错误 | InfiniCore #528 | 定位并修复在平台上 topksoftmax 算子 CPU 版本的运行错误,验证修复后在不同平台下结果一致性,提升国产算力兼容性与稳定性 |
| 4 | AI4S 前沿论文复现与加速实现 | (待创建) | 选择 AI for Science 领域论文,复现并在国产算力上加速运行 |
| 5 | 单 Transformers 模型迁移到 vLLM / SGLang | (待创建) | 将主流 Transformers 模型迁移至 vLLM 或 SGLang,在国产算力平台上实现可运行与性能优化 |
| 6 | LMDeploy 模型适配迁移 | (待创建) | 参考 LMDeploy 的模型适配方案,扩展未支持模型类型在国产算力平台上的运行能力 |
| 7 | JAX 模型迁移至 PyTorch 生态 | (待创建) | 将 JAX/Flax 等框架模型迁移至 PyTorch 生态,实现训练与推理功能对齐 |
| 8 | CUDA AI 软件迁移至国产 MACA 栈 | (待创建) | 将 CUDA AI 开源软件迁移至国产 MACA 软件栈,实现算子与框架兼容 |
| 9 | 其它有价值的模型或算子迁移 | (待创建) | 聚焦具有科研或工程价值的模型迁移任务,以最终审核结果为准 |
生态类赛题(Ecosystem Contribution Track)
适合对上游开源生态建设、社区贡献感兴趣的选手。可通过提交 PR 至开源项目上游仓库完成任务。
| 序号 | 赛题名称 | Issue / 仓库 | 简介 |
|---|---|---|---|
| 1 | 参与 InfiniCore 社区上游贡献 | InfiniCore 主仓库 | 完成算子迁移或优化,提交 PR 至主仓库 |
| 2 | 参与 MACA 组织上游贡献 | MACA 主仓库 | 支持国产算力平台生态扩展,贡献文档或代码实现 |
| 3 | vLLM Kernel 模块拆分与打包重构 | vLLM #12 | 讨论并实现 vLLM项目中内核模块的结构化拆分与独立打包,以减少构建时间、优化依赖关系、提升项目可扩展性,促进国产算力生态的维护与发展 |
| 4 | InfiniCore 上游贡献与算子迁移 | 主仓库 迁移案例参考 |
参考 InfiniCore 仓库算子迁移案例,完成国产化迁移与验证 |
| 5 | FlashMLA 项目参与与适配 | (待创建) | 参与 FlashMLA 等高性能推理框架的国产化迁移与适配 |
其他潜在方向(可自拟题)
| 序号 | 赛题名称 | Issue / 仓库 | 简介 |
|---|---|---|---|
| 1 | 国产 AI 基础设施自主化探索 | (待创建) | 聚焦国产 AI 基础设施自主化与软硬件协同优化 |
| 2 | 生态集成与性能评测 | (待创建) | 针对多个项目的适配成果进行统一测试、性能分析与可视化报告输出 |
参赛者也可提出新的赛题方向,需经组委会审核后列入正式评审范围:
- FlashMLA 模型或框架迁移;
- 将 JAX 模型迁移至 PyTorch 生态;
- 将 CUDA AI 开源项目迁移至 MACA 软件栈;
- 其他具有生态价值的优化或适配方向。
注意事项与建议
- 所有提交需遵循 TASK_INTERPRETATION.md 中的流程;
- 推荐每个 PR 只对应一个主要 Issue;
- 若上游仓库为 GitHub,请保持与社区开发者积极沟通,确保合并成功;
- 所有被上游仓库合并的有效贡献将计入评分;
- 建议在提交后保持跟进,补充文档或测试说明。
结语
子赛题二鼓励所有参赛者积极参与国产算力生态建设,通过真实的上游贡献推动 MACA、InfiniCore、MinerU 等开源社区协同发展。
无论是文档编写、模型迁移还是算子优化,每一次有效的贡献,都是推动国产 AI 生态自立自强的重要一步。
欢迎大家踊跃参与,共同建设开放、可持续的国产 AI 开源生态!
更多推荐


所有评论(0)