Lnjoying AI Cloud: 面向下一代AI场景的开源人工智能云平台
Lnjoying AI Cloud 是秒如科技自主研发的开源全栈人工智能云平台,提供一站式AI算力基础设施解决方案。该平台集成了算力资源纳管、智能调度、统一数据管理、商业化运营等核心功能,支持AI训练、推理、大模型微调等多样化场景。具备灵活私有化部署能力,可对接跨区域数据中心和GPU资源池,并提供丰富的AI应用模板和镜像服务。平台采用Apache 2.0许可证开源,支持多形态算力资源管理、Kube
🌐 项目简介
Lnjoying AI Cloud 是秒如科技自主研发的开源、面向下一代 AI 计算与高性能计算的全栈人工智能云平台解决方案,专注于为企业客户、科研机构、AI 开发者提供云-边缘-端、一站式人工智能算力基础设施能力。
平台集 算力资源纳管、智能调度、分布式算力管理、统一数据管理、高速传输、商业化运营、统一运维、统一灾备 于一体,广泛适用于 AI 训练、推理、大模型微调、模型仓库、大数据分析、高性能计算(HPC)等多样化业务场景。
AiCloud 具备灵活私有化部署能力,支持对接跨区域的数据中心、GPU算力资源池,帮助用户轻松构建弹性、高效、安全的智算平台。同时,平台提供丰富的 应用市场和镜像服务,内置多种 AI 应用模板和推理服务,支持用户一键部署,加速 AI 业务上线。
本项目已开源核心能力模块,包括 算力纳管(需与NextStack平台配合)、分布式算力资源管理、智能调度、统一运维、多租户管理,欢迎开发者、企业用户、合作伙伴参与共建,共同打造开放、可信的全新下一代 AI 云基础设施平台。
💡 为什么选择 Lnjoying AI Cloud?
✅ 端到端一体化 AI 云平台
从算力资源纳管、调度、编排,到应用交付、数据管理、商业化运营,提供覆盖全链路的一体化解决方案,满足企业从基础设施到业务交付的所有需求。
✅ 灵活适配多种部署与算力环境
无论是裸金属、虚拟机、容器,还是多云、跨地域、分布式资源,平台均可灵活对接与统一管理,帮助企业快速构建弹性算力架构。
✅ 专为 AI 与高性能计算打造
深度适配 AI 训练、推理、大模型微调等场景,内置主流 AI 框架与模型库,配备 GPU 专属调度与资源池优化,提升算力利用率与业务交付效率。
✅ 高速数据传输与安全隔离保障
自主研发高速传输协议,突破公网带宽瓶颈,同时全链路数据加密、权限隔离、多副本容灾,保障数据安全与业务连续性。
✅ 商业化运营能力与生态赋能
支持多样化定价、促销管理、供应商分账、客户门户等商业化能力,助力平台化运营与合作生态共赢。
✅ 完善的运维与监控体系
提供全栈监控、智能告警、日志审计等多维运维能力,保障平台稳定可靠运行,降低运维成本与风险。
⚙️ 核心功能特性
🎛️ 全栈算力纳管与资源池化管理
- 多形态算力资源支持:支持裸金属、虚拟机、GPU/CPU 异构资源的统一纳管与调度,适配多样化算力需求。
- 灵活的网络资源编排:支持 VPC、子网、EIP、NAT、网络安全组等多维网络隔离与策略配置,提升业务网络安全性与灵活性。
- 统一存储资源池管理:支持 HDD/SSD/NVMe 存储资源池化管理,提供多副本、RAID、快照、分布式存储接入能力,保障数据高可用。
- 跨区域算力接入与统一调度:支持多地域算力接入,实现全球资源统一编排、纳管与调度,提升资源利用率和业务连续性。
- 智能检索与推荐:支持按算力类型、计费类型、地理位置、节点负载、可用性等推荐最佳节点,适配用户多样化的算力需求。
⚙️ 智能算力调度与多引擎容器编排
- 原生 Kubernetes 编排兼容:深度适配 K8s、Docker Compose 等主流容器编排工具,支持跨节点、多集群应用部署。
- 多架构适配能力:兼容 Docker容器引擎,全面支持 x86、ARM 及国产芯片架构,适应多元硬件环境。
- 丰富的语言与 AI 框架支持:兼容 Java、Python、Node.js 及 TensorFlow、PyTorch 等主流 AI 框架,助力 AI 应用快速交付。
- 完善的容器生命周期管理:支持容器的创建、启停、监控、迁移等全生命周期管理,提升容器服务稳定性与弹性。
🛒 应用市场
- 预置主流开源大模型与AI应用:平台内置如 Llama、Gemma、Stable Diffusion 等主流开源大模型和 AI 应用模板,支持用户一键部署,快速搭建训练或推理环境。
- 集成 Nvidia NIM AI 推理服务:预集成 Nvidia 推出的 NIM AI 推理服务镜像,提供即插即用的企业级 AI 推理能力,降低部署门槛,加速企业 AI 服务上线。
- 自定义应用模板工具:提供易用的 Compose 模板配置工具,用户可根据自身业务需求,自定义部署脚本并保存为私有或共享模板,提升应用交付效率。
- 一键部署能力:用户可通过简单的参数配置,快速完成 AI 模型、应用或数据服务的一键部署,大幅降低技术门槛,加快业务上线节奏。
🐳 容器镜像服务
- 内置企业级镜像仓库:提供多项目、多用户隔离的镜像管理能力,支持镜像版本控制、访问权限管理,保障企业内部镜像安全合规。
- 镜像预载与加速分发:支持将常用镜像预载至节点,减少网络带宽占用,加速应用启动与大规模批量部署。
- 私有与第三方镜像仓库对接:支持对接企业私有 Harbor、Docker Hub 等第三方镜像仓库,兼容 OCI 标准,满足多源镜像拉取需求。
⚡ 统一数据管理与高速传输引擎
- 个人/公共数据空间管理:支持用户自定义管理模型、数据集、程序包等资源,提升数据共享与交付效率。
- 自研 UDP 高速传输引擎:基于 UDP 传输协议,支持 TB 级大文件、断点续传、高丢包网络环境下的高速稳定传输。
- 多维安全防护机制:采用 AES-256 加密、CRC 校验、数据切片技术,全面保障数据传输过程的完整性与安全性。
💼 算力运营与商业化支持
- 丰富的算力产品组合:支持 CPU/GPU/内存/带宽等多种资源套餐组合,满足不同场景下的算力供给需求。
- 灵活的计费与促销策略:支持包月包年、按量计费、折扣促销等多样化定价模式,帮助平台优化资源变现能力。
- 供应商分账与收益管理:内置分账结算模块,支持与多方资源供应商合作,自动化收益分配与结算。
- 多角色运营管理门户:支持客户、供应商、运维人员多角色登录与权限管理,提升平台运营效率与服务体验。
🛠️ 智算统一运维平台
- 全栈资源实时监控:提供服务器 CPU、内存、硬盘、网络、GPU 显存与算力利用率,以及容器、虚拟机等资源的全维度监控能力,保障资源透明可视。
- 智能告警与自动恢复:支持自定义阈值告警,结合短信、邮件多通道实时通知,帮助运维人员快速响应异常事件。
- 日志与事件审计管理:集中管理集群、虚拟机、容器、用户操作等多类日志,支持快速检索与分析,提升运维排障效率。
- 多租户资源隔离与权限管理:内置 IAM 权限管理,支持多角色、多租户资源隔离管理,保障平台多租户业务的安全与稳定运行。
🧪 快速上手
# 拉取 aiCloud 安装包
git clone https://github.com/lnjoying-ai/open-aicloud.git
cd open-aicloud
# 部署容器服务
./deploy.sh
# 访问平台控制台
http://localhost:8081
推荐部署配置
📦 基础环境要求
| 组件 | 推荐配置 |
|---|---|
| 操作系统 | Ubuntu 20.04 / CentOS 7+ |
| 内核版本 | 5.10+ |
| Docker 版本 | 20.10.x |
| Kubernetes | 1.26+ |
| Helm 版本 | 3.10+ |
| Python | 3.8+ |
| GPU 驱动 | NVIDIA Driver 525+ |
| CUDA Toolkit | CUDA 11.8+ |
| 网络端口 | 80/443/30000-32767(TCP) |
🚀 软硬件资源建议
管理节点(Master)
- CPU:8 核心
- 内存:32 GB
- 硬盘:500 GB SSD
- 网络:千兆以上网络接口
AI 计算节点(AI Compute)
- CPU:16 核心以上
- 内存:64 GB 以上
- 硬盘:1 TB SSD 或 NVMe
- GPU:NVIDIA A100 / RTX 4090 / V100
- 网络:万兆网络或 RoCE 网络(建议)
存储节点(可选)
- CPU:8 核心
- 内存:32 GB
- 存储:10 TB 以上 HDD + SSD 缓存
- 网络:千兆以上网络接口
🛠️ 可选组件支持
- 分布式存储:Ceph / MinIO / NFS
- 对象存储:S3 / MinIO
- 负载均衡:NGINX / HAProxy
- 日志与监控:Prometheus + Grafana
- 高速传输组件:Lnjoying自研 UDP 传输引擎
🤝 贡献方式
欢迎所有开发者参与 aiCloud 的构建:
- Fork 本仓库
- 创建特性分支
git checkout -b feature/awesome-feature - 提交代码
git commit -m 'Add awesome feature' - 推送分支
git push origin feature/awesome-feature - 发起 Pull Request
🪪 License
本项目采用 Apache 2.0 修改开源许可证
📣 联系我们
- GitHub:https://github.com/lnjoying-ai
- 官网:https://91gpu.cloud
- 邮箱:service@lnjoying.com
- 社区:微信交流群+v:lnjoying-ai
更多推荐


所有评论(0)