引言:当电力系统遇见人工智能革命

1.1 能源转型中的技术拐点

全球能源结构正经历百年未有之变局。根据国际能源署(IEA)2025年报告,可再生能源在全球发电量中的占比已突破38%,中国新能源装机容量连续8年位居世界第一,2024年底达到12.3亿千瓦,占全国总装机的47.3%。这种转变带来两个根本性挑战:

系统复杂性激增:新能源出力的随机性、间歇性使电网从"源随荷动"转向"源荷双随机",系统平衡难度呈指数级上升

数据价值密度提升:一座千万千瓦级风电场每天产生超过2TB的运行数据,传统分析手段已无法处理如此海量的信息

在此背景下,人工智能大模型凭借多模态数据处理、复杂逻辑推理、动态优化决策三大核心能力,成为破解电力系统智能化转型的"金钥匙"。与传统小模型相比,大模型具有三大革命性优势:

  1. 知识泛化能力:通过千亿级参数学习行业通用规律,实现"举一反三"的决策能力
  2. 多任务协同性:单一模型可同时处理预测、控制、优化等多种任务,打破系统壁垒
  3. 持续进化特性:通过在线学习机制,模型可随系统变化自动更新知识库

1.2 电力大模型的产业价值矩阵

电力行业大模型的应用已形成"三维价值体系":

安全维度:将设备故障预测准确率从75%提升至95%以上,重大事故发生率降低60%

经济维度:通过智能调度优化,降低系统运行成本8%-12%,提升新能源消纳率5-8个百分点

效率维度:将人工巡检工作量减少70%,电力交易决策时间从小时级压缩至分钟级

据麦肯锡预测,到2030年电力行业大模型将创造超过2000亿元的经济价值,成为继特高压、智能电网之后的第三大技术支柱。

第一章 国家电网"光明电力大模型":电力系统的"全栈智慧中枢"

1.1 诞生背景与技术定位

1.1.1 政策驱动与行业需求

2023年国家发改委《“十四五"现代能源体系规划》明确提出"构建以大模型为核心的智能电网技术体系”。国家电网作为全球最大公用事业企业,面临着管理11亿用户、400万km输电线路、4.6亿台配电设备的超复杂系统,传统信息化手段已难以满足需求。

1.1.2 技术定位与核心目标

“光明电力大模型”(Bright Power AI)于2024年12月正式发布,其技术定位为"电力行业通用人工智能基础设施",核心目标包括:

构建覆盖"发-输-变-配-用"全环节的知识体系

实现多模态数据(文本、图像、视频、时序)的统一语义理解

提供从感知、认知到决策的端到端智能服务

1.2 技术架构深度解析

1.2.1 总体架构设计

采用"1+N+X"三级架构:

1个基础大模型:1300亿参数MoE架构,包含128个专家网络

N个专业模型:针对调度、运维、营销等场景微调的垂直模型

X个应用插件:封装特定功能的即插即用模块

1.2.2 核心技术创新
(1)多模态融合算法

首创电力领域跨模态对齐算法(Power Cross-modal Alignment, PCA),解决不同类型数据的语义鸿沟问题:

图像-文本对齐:通过CLIP架构改进,将无人机巡检图像与设备台账文本映射到同一语义空间

时序-知识对齐:使用时序知识图谱(Temporal Knowledge Graph)关联SCADA数据与设备履历

跨模态检索:支持"以图搜文"、"以文搜图"的智能检索功能

(2)动态路由机制

基于门控专家选择算法(Gated Expert Selection, GES),实现任务自适应专家调度。实验表明,该机制可使模型在不同任务间的切换延迟降低40%。

(3)知识蒸馏框架

构建三层知识蒸馏体系

  1. 专家知识蒸馏:将资深工程师的经验编码为规则库
  2. 跨模态知识蒸馏:将视觉模型的缺陷识别能力迁移至文本模型
  3. 时序知识蒸馏:将历史调度案例的规律提炼为决策模板

1.3 算法模型与数学推导

1.3.1 基础架构:改进的Transformer-XL

在标准Transformer基础上引入两项改进:

  1. 循环记忆机制:通过分段递归处理长序列数据,解决电力时序数据(如一年的负荷曲线)的长距离依赖问题
  2. 相对位置编码:针对电网拓扑结构的空间相关性,设计二维相对位置编码矩阵
1.3.2 多模态融合模块

采用多头跨模态注意力机制(Multi-head Cross-modal Attention):

MultiHead(Q,K,V)=Concat(head1,...,headh)WO

其中,headi=Attention(QWiQ,KWiK,VWiV),每个注意力头专门处理一种模态组合(如图文、图时、文时)。

1.3.3 时序预测子模型

基于LSTM-GARCH混合架构,同时捕捉负荷的长期趋势与短期波动:

LSTM层:64个隐藏单元,捕捉长期依赖

GARCH层:建模波动率的聚集效应

预测公式:yt+1=LSTM(yt,yt−1,…,yt−n)+ϵt,其中ϵt∼N(0,σt2),σt2=α0+∑i=1pαiϵt−i2+∑j=1qβjσt−j2

1.4 应用场景与实证分析

1.4.1 智能巡检系统

技术方案

无人机巡检:搭载高清摄像头与红外热像仪,采集设备图像

边缘计算节点:部署轻量化缺陷识别模型(基于YOLOv8改进)

云端大模型:对疑似缺陷进行二次复核与根因分析

实施效果

安徽电网应用后,年巡检杆塔超500万基,减少人工登塔次数40%

缺陷识别准确率达95%,其中绝缘子破损识别率98.2%,导线断股识别率96.7%

典型案例:2025年3月通过红外图像识别某500kV线路引流板过热缺陷,避免了一起可能的跳闸事故

1.4.2 智能调度决策系统

技术方案

构建包含10万+节点的电网数字孪生模型

集成天气预报、新能源出力预测、负荷预测等多源数据

采用深度强化学习算法(PPO)优化调度策略

实施效果

福建电网应用后,故障隔离时间从15分钟缩短至3分钟

2025年迎峰度夏期间,通过智能削峰填谷降低尖峰负荷120万千瓦

新能源消纳率提升4.2个百分点,相当于多接纳风电2.1亿千瓦时

1.4.3 客户服务系统

技术方案

构建包含1.2亿条电力专业知识的知识图谱

开发多轮对话管理模块,支持复杂业务咨询

集成语音识别与自然语言生成技术

实施效果

"浙电知乎"智能客服累计回答问题超25万次,问答回复率超90%

人工坐席工作量减少70%,用户满意度提升至92.3%

典型案例:2025年4月通过语义理解准确识别用户"光伏报装"需求,自动生成材料清单与办理流程

1.5 技术挑战与未来演进

1.5.1 当前技术瓶颈
  1. 小样本学习难题:罕见故障样本不足导致识别准确率下降
  2. 实时性约束:复杂模型推理延迟难以满足毫秒级调度需求
  3. 可解释性不足:深度学习模型的"黑箱"特性影响决策可信度
1.5.2 未来演进方向

神经符号融合:结合符号推理与深度学习,提升可解释性

量子计算加速:探索量子算法在潮流计算中的应用,提升求解速度

联邦学习架构:在保护数据隐私的前提下实现跨企业模型协同训练

第二章 南方电网"大瓦特":轻量化场景落地的典范

2.1 研发背景与技术定位

2.1.1 区域电网的特殊需求

南方电网负责广东、广西、云南、贵州、海南五省区电力供应,面临两大独特挑战:

新能源高比例接入:云南、贵州水电装机占比超70%,广西风电装机增速连续三年超30%

复杂地形环境:云贵高原、两广丘陵等地形导致输电线路巡检难度大

2.1.2 技术定位与核心目标

“大瓦特”(DAPower)于2023年6月发布,定位为"面向配用电环节的轻量化智能引擎",核心目标:

实现模型参数量级压缩(从千亿级降至百亿级)

支持边缘设备部署(如无人机、巡检机器人)

聚焦配网故障处理、负荷预测等高频场景

2.2 技术架构深度解析

2.2.1 总体架构设计

采用"云-边-端"三级协同架构:

云端:部署基础大模型,负责模型训练与知识更新

边缘:部署轻量化模型,实现实时推理与决策

终端:嵌入式设备(如无人机、传感器)执行数据采集与简单预处理

2.2.2 核心技术创新
(1)轻量化技术体系

知识蒸馏:将千亿参数教师模型的知识迁移至百亿参数学生模型

模型剪枝:移除冗余神经元,模型体积压缩60%

量化压缩:采用INT8量化技术,推理速度提升3倍

(2)边缘计算优化

自适应计算调度:根据设备算力动态调整模型复杂度

增量学习机制:支持边缘设备本地数据的小样本学习

能耗优化算法:通过动态电压频率调整(DVFS)降低功耗30%

(3)多模态融合改进

针对配网场景优化多模态融合策略:

图像优先原则:在缺陷识别中以视觉特征为主导

时序简化表示:采用关键帧提取技术降低时序数据维度

知识图谱轻量化:构建区域化精简知识图谱,仅保留本地设备信息

2.3 算法模型与数学推导

2.3.1 基础架构:改进的MobileViT

结合CNN的局部特征提取能力与Transformer的全局建模能力:

MobileNetV3骨干网络:负责快速特征提取

窗口Transformer模块:在局部窗口内进行注意力计算,降低计算复杂度

特征金字塔融合:融合不同尺度的特征图,提升小目标检测能力

2.3.2 缺陷识别算法

基于改进YOLOv8的电力设备缺陷检测模型

注意力引导模块(AGM):增强对微小缺陷的关注度

多尺度特征融合:通过FPN+PAN结构融合不同层级特征

损失函数优化:采用CIoU Loss提升边界框回归精度

2.3.3 负荷预测模型

采用时空图卷积网络(ST-GCN)

空间图卷积:建模用户用电行为的空间相关性

时间卷积:捕捉负荷的周期性变化规律

外部因素融合:整合温度、湿度、节假日等外部变量

2.4 应用场景与实证分析

2.4.1 配网智能巡视系统

技术方案

无人机集群:搭载轻量化视觉模型,实现自主路径规划与缺陷识别

移动巡检车:集成红外热像仪与局放检测仪,支持复杂环境作业

缺陷管理系统:自动生成巡检报告与消缺工单

实施效果

广州供电局应用后,单次巡视耗时从300小时压缩至2小时

缺陷发现率提升5倍,其中导线异物识别率从65%提升至92%

2025年累计发现紧急缺陷587项,避免停电事故27起

2.4.2 智能客服系统

技术方案

构建包含50万条电力服务知识库

开发意图识别与槽位填充联合模型

支持方言识别与多轮对话

实施效果

贵州电网"爽小电"虚拟客服,30秒内回应率100%

人工替代率达80%,高频业务(如电费查询、故障报修)实现全自动化

用户平均等待时间从8分钟缩短至15秒

2.4.3 新能源消纳优化

技术方案

构建区域新能源出力预测模型(短期预测精度89%,超短期预测精度93%)

开发源网荷储协同优化算法

建立市场化消纳交易机制

实施效果

广西电网新能源消纳率从88%提升至97%,高出全国平均4个百分点

2025年通过智能调度多消纳风电3.2亿千瓦时

典型案例:2025年4月通过预测模型提前调整水电出力,避免弃风1.2亿千瓦时

2.5 技术挑战与未来演进

2.5.1 当前技术瓶颈
  1. 极端环境适应性:暴雨、浓雾等恶劣天气下识别准确率下降
  2. 小样本学习:新型设备缺陷样本不足导致漏检
  3. 边缘设备兼容性:不同厂商设备接口不统一导致部署困难
2.5.2 未来演进方向

多模态融合增强:引入声音、气味等新型传感器数据

自监督学习:利用无标签数据提升模型泛化能力

数字孪生集成:构建配网设备数字孪生体,实现虚拟巡检

第三章 国家能源集团"擎源":发电行业的"全链条优化引擎"

3.1 研发背景与技术定位

3.1.1 能源央企的转型需求

国家能源集团作为全球最大煤炭生产企业与风电运营商,面临双重转型压力:

煤电角色转变:从主力电源向调节性电源转型,需提升灵活性

新能源规模化:风电、光伏装机占比已达35%,亟需智能化管理

3.1.2 技术定位与核心目标

“擎源”(Qingyuan)于2025年6月发布,定位为"发电行业全生命周期智能管理平台",核心目标:

覆盖"工程建设-生产运营-设备维护"全流程

实现火电、水电、新能源多能协同优化

构建自主可控的发电行业AI技术体系

3.2 技术架构深度解析

3.2.1 总体架构设计

采用"数据中台+AI中台+业务中台"三位一体架构:

数据中台:整合450GB高质量发电数据(文本、视频、音频、图片)

AI中台:包含设备健康管理、运行优化、安全环保等AI模块

业务中台:对接ERP、SIS、EAM等生产管理系统

3.2.2 核心技术创新
(1)多能协同优化引擎

基于博弈论的多智能体协作框架,协调不同电源的出力分配:

火电:承担基荷与调峰任务,优化燃烧效率

水电:发挥快速调节优势,平抑新能源波动

新能源:最大化消纳,减少弃风弃光

(2)数字孪生平台

构建高精度机组仿真模型:

物理引擎:集成OpenFOAM流体力学求解器、ANSYS结构分析模块

数据驱动校正:通过实时运行数据修正模型参数

虚拟调试:在新机组投运前进行全流程仿真测试

(3)自主可控技术体系

国产化硬件:适配昇腾910芯片、飞腾CPU等国产算力平台

开源框架定制:基于MindSpore深度学习框架优化电力专用算子

安全防护体系:构建"模型加密-数据传输-访问控制"三级防护

3.3 算法模型与数学推导

3.3.1 多能协同优化算法

采用**深度强化学习(DRL)+ 模型预测控制(MPC)**混合架构

3.3.2 设备健康管理模型

基于**LSTM-AE(长短期记忆自编码器)**的故障预测算法:

编码器:将设备振动、温度等时序数据压缩为低维特征向量

解码器:从特征向量重建原始数据,重建误差作为健康指标

异常检测:当重建误差超过阈值时触发预警

3.3.3 燃烧优化模型

采用强化学习+CFD仿真的混合方法:

状态空间:包含给煤量、风量、氧量、炉膛温度等20+参数

动作空间:调整二次风门开度、燃尽风配比等控制变量

奖励函数:综合考虑热效率、NOx排放、飞灰含碳量等指标

3.4 应用场景与实证分析

3.4.1 火电灵活性改造

技术方案

构建锅炉燃烧数字孪生模型

开发基于强化学习的燃烧优化算法

集成脱硝系统协同控制

实施效果

湖北汉川电厂应用后,锅炉燃烧效率提升2.3%

最低稳燃负荷从30%降至25%,调峰能力提升20%

NOx排放浓度降低15mg/m³,年节约环保成本800万元

3.4.2 新能源功率预测

技术方案

融合数值天气预报(NWP)与卫星遥感数据

开发基于Transformer的超短期预测模型(预测周期15分钟-4小时)

构建极端天气预警模块

实施效果

内蒙古某风电场应用后,短期预测精度从82%提升至91%

超短期预测精度达94%,减少弃风1.2亿千瓦时/年

2025年6月成功预测一次强对流天气,提前调整运行方式避免设备损坏

3.4.3 设备智能检修

技术方案

部署振动、温度、油液等多类型传感器

开发设备健康状态评估模型(Health Index, HI)

构建检修决策支持系统

实施效果

179个试点电站半年发现缺陷2633条,其中紧急缺陷占比12%

非计划停机时间减少30%,设备可用率提升至98.5%

检修成本降低25%,备件库存周转率提升40%

3.5 技术挑战与未来演进

3.5.1 当前技术瓶颈
  1. 多物理场耦合建模:复杂工况下数字孪生模型精度有待提升
  2. 小样本故障学习:罕见故障样本不足导致预测盲区
  3. 跨机组知识迁移:不同机组特性差异导致模型泛化能力下降
3.5.2 未来演进方向

数字孪生深化:引入量子计算加速仿真过程

联邦学习应用:在保护数据隐私前提下实现跨电厂模型协同训练

自主决策升级:从辅助决策向完全自主决策演进

第四章 蚂蚁数科EnergyTS 2.0:新能源预测的"精度革命"

4.1 研发背景与技术定位

4.1.1 新能源预测的行业痛点

新能源功率预测面临三大挑战:

气象不确定性:云层移动、风速突变等导致出力剧烈波动

时空尺度复杂:需同时处理分钟级波动与季节变化趋势

经济性要求高:预测误差每增加1%,可能导致数百万经济损失

4.1.2 技术定位与核心目标

EnergyTS 2.0于2025年3月发布,定位为"新能源时序预测专用大模型",核心目标:

实现多时间尺度(分钟级-季度级)高精度预测

融合气象、地理、设备等多源异构数据

提供开箱即用的预测服务,降低行业应用门槛

4.2 技术架构深度解析

4.2.1 总体架构设计

采用"数据层-模型层-应用层"三层架构:

数据层:整合气象数据(ECMWF、CMA)、地理数据(DEM、土地利用)、设备数据(逆变器、风机参数)

模型层:基于MoE架构的混合专家模型,包含4个专业预测子模型

应用层:提供API接口、可视化工具、决策支持服务

4.2.2 核心技术创新
(1)多尺度特征提取

基于**小波变换(Wavelet Transform)**分解时序信号:

低频分量:反映长期趋势(如季节变化)

高频分量:捕捉短期波动(如云层遮挡)

多分辨率分析:同时处理不同时间尺度的特征

(2)混合专家系统(MoE)

设计4个专家网络分工协作:

专家1:处理短期预测(0-6小时),专注分钟级波动

专家2:处理中期预测(6-72小时),关注天气系统演变

专家3:处理长期预测(3-30天),把握季节变化趋势

专家4:处理极端天气预测,提升特殊场景鲁棒性

(3)对抗训练策略

通过**生成对抗网络(GAN)**增强模型鲁棒性:

生成器:模拟极端天气下的功率曲线

判别器:区分真实数据与生成数据

训练目标:使模型在生成数据上的预测误差最小化

4.3 算法模型与数学推导

4.3.1 基础架构:改进的Informer

针对新能源时序数据特点优化Informer模型:

ProbSparse自注意力:降低长序列计算复杂度

蒸馏机制:通过教师-学生网络提取关键特征

多尺度特征融合:结合不同时间粒度的特征表示

4.3.2 气象-功率关联模型

采用**图神经网络(GAT)**建模气象要素与功率的非线性关系:

节点特征:包含温度、辐照度、风速、气压等气象参数

边权重:表示气象要素间的相关性强弱

图卷积:聚合邻域节点信息,捕捉空间相关性

4.3.3 预测结果优化

引入后处理校准模块

分位数回归:输出预测区间而非单点估计

物理约束:确保预测结果符合能量守恒定律

市场规则适配:根据电力市场规则调整预测偏差

4.4 应用场景与实证分析

4.4.1 光伏功率预测

技术方案

融合卫星云图、地面辐照度计数据

开发基于小波变换的云层运动预测模型

构建组件温度-功率特性曲线库

实施效果

江苏某250MW光伏电站应用后,日前预测MAE从0.12降至0.023

弃光率从3.2%下降至0.5%,年增发电量1200万千瓦时

2025年5月成功预测一次突发云层遮挡,提前调整储能充放电策略

4.4.2 风电功率预测

技术方案

融合数值天气预报与激光雷达测风数据

开发基于LSTM-TCN混合模型的尾流效应预测模块

构建风电场集群功率协调预测算法

实施效果

内蒙古某200MW风电场应用后,短期预测精度达92%

超短期预测精度达95%,减少弃风8000万千瓦时/年

2025年3月通过尾流效应预测优化风机布局,提升全场出力3%

4.4.3 电力交易辅助决策

技术方案

构建电力市场价格预测模型

开发基于强化学习的竞价策略优化算法

提供风险对冲建议(如签订差价合约)

实施效果

协鑫能科应用后,单月交易收益提升12.24%

某100MW风电场通过优化日前报价,减少考核费用50万元/月

2025年累计辅助完成电力交易额超10亿元

4.5 技术挑战与未来演进

4.5.1 当前技术瓶颈
  1. 极端天气预测:台风、雷暴等极端事件预测精度仍有提升空间
  2. 数据质量依赖:低质量气象数据导致预测误差增大
  3. 计算资源消耗:高精度预测需要大量算力支持
4.5.2 未来演进方向

多模态融合:引入雷达、卫星等多源观测数据

量子计算应用:探索量子算法加速气象模拟过程

边缘计算部署:开发轻量化模型支持场站本地预测

第五章 国能日新"旷冥":极端天气下的"预测护盾"

5.1 研发背景与技术定位

5.1.1 极端天气对电力系统的影响

近年来,极端天气事件频发对电力系统造成严重冲击:

2024年河南特大暴雨:导致58座变电站停运,影响用户1200万户

2025年华南台风季:造成风电出力骤降40%,引发局部电网频率波动

2025年华北高温干旱:光伏出力下降30%,空调负荷激增导致供电紧张

5.1.2 技术定位与核心目标

“旷冥”(Kuangming)于2025年8月发布,定位为"极端天气下的新能源功率预测大模型",核心目标:

提升极端天气条件下的预测精度(目标:误差<8%)

实现提前12-72小时的极端事件预警

构建物理机理与数据驱动融合的预测体系

5.2 技术架构深度解析

5.2.1 总体架构设计

采用"物理引导+数据驱动"双引擎架构:

物理引擎:集成WRF天气模式、CFD流体仿真模块

数据引擎:基于Transformer的深度学习模型

融合决策层:通过贝叶斯网络综合两种引擎的输出结果

5.2.2 核心技术创新
(1)物理嵌入模块

将大气动力学方程嵌入神经网络:

Navier-Stokes方程:约束风速、气压场的演化过程

辐射传输方程:描述太阳辐射在大气中的传播

热力学方程:建模温度变化对设备出力的影响

(2)多任务学习框架

联合训练三个相关任务:

主任务:新能源功率预测

辅助任务1:设备故障风险评估

辅助任务2:电网稳定性评估

通过共享特征表示提升模型泛化能力

(3)不确定性量化

采用蒙特卡洛 dropout方法估计预测不确定性:

在推理阶段多次启用dropout,生成预测分布

计算95%置信区间,为决策提供风险参考

5.3 算法模型与数学推导

5.3.1 基础架构:物理引导的Transformer

在标准Transformer基础上增加物理约束层:

输入层:融合气象数据、设备参数、历史功率数据

物理约束层:通过微分方程残差约束模型输出

输出层:功率预测值及不确定性估计

5.3.2 极端天气识别算法

基于孤立森林(Isolation Forest)LSTM结合的异常检测方法:

孤立森林:快速识别功率曲线的异常形态

LSTM:学习异常事件的时序演化规律

预警规则:当异常评分超过阈值且持续时间超过设定值时触发预警

5.3.3 电网影响评估模型

采用**图卷积网络(GCN)**建模新能源波动对电网的影响:

节点:代表发电厂、变电站、负荷中心

:表示电气连接关系

特征:包含节点电压、相角、功率注入等参数

5.4 应用场景与实证分析

5.4.1 极端天气预警

技术方案

实时接入气象雷达、卫星云图数据

开发基于深度学习的极端天气分类模型(识别台风、暴雨、高温等8类事件)

构建预警信息发布与应急响应联动机制

实施效果

2025年6月山东高温大风天气中,提前12小时预警光伏出力骤降

某100MW风电场通过及时调整储能充放电策略,避免收益损失5万元

预警准确率达85%,误报率控制在5%以内

5.4.2 风光功率预测

技术方案

融合45年ERA5再分析资料与近6000家场站实测数据

开发基于动态图神经网络的风光集群预测算法

构建极端天气下的功率曲线修正模型

实施效果

内蒙古某风光基地应用后,全年发电量预测误差率<5%

极端天气条件下预测精度达88%,较传统模型提升15%

2025年累计提升发电收益1.2亿元

5.4.3 电网调度支持

技术方案

为电网主站提供全区域风电功率预测

开发基于模型预测控制的调度优化算法

构建新能源波动对电网频率影响的量化评估模型

实施效果

甘肃电网应用后,弃风率从9%降至4%

频率越限事件发生次数减少60%

2025年夏季高峰期间,通过精准预测避免拉闸限电3次

5.5 技术挑战与未来演进

5.5.1 当前技术瓶颈
  1. 物理模型精度:WRF模式在复杂地形下的模拟误差较大
  2. 极端样本稀缺:历史极端天气样本不足限制模型训练
  3. 计算成本高昂:物理仿真与深度学习融合导致计算开销大
5.5.2 未来演进方向

物理模型改进:引入AI加速的气象模式(如FourCastNet)

合成数据生成:利用GAN生成极端天气场景的训练数据

边缘-云协同:将部分计算任务下沉至场站边缘节点

第六章 电力大模型技术对比与产业生态

6.1 五大模型技术参数对比

对比维度 光明电力大模型 大瓦特 擎源 EnergyTS 2.0 旷冥
研发机构 国家电网 南方电网 国家能源集团 蚂蚁数科 国能日新
发布时间 2024年12月 2023年6月 2025年6月 2025年3月 2025年8月
参数规模 1300亿 200亿 1500亿 70亿 300亿
架构特点 MoE+多模态融合 轻量化CV+边缘计算 强化学习+数字孪生 MoE+小波变换 物理嵌入+GCN
核心优势 全业务覆盖、跨模态融合 实时性高、部署成本低 多能协同优化、自主可控 高精度时序预测 极端天气预测、电网稳定性
典型应用场景 电网规划、智能巡检 配网巡视、负荷预测 火电调优、电力交易 新能源发电预测 风光功率预测、调度优化
预测精度 调度误差<3% 负荷预测误差<2% 电价预测误差<3% T+1 MAE 0.023 极端天气误差<8%
部署方式 云端为主 云-边-端协同 云端+本地服务器 云端API 云端+边缘节点

6.2 技术路线对比分析

6.2.1 架构设计哲学差异

全栈覆盖 vs 垂直深耕

国家电网"光明"与国家能源集团"擎源"追求全业务覆盖,模型参数规模大(千亿级以上),适合复杂系统的统一管理;蚂蚁数科EnergyTS 2.0与国能日新"旷冥"聚焦单一场景(新能源预测),通过算法优化在特定指标上实现突破。

通用能力 vs 专用优化

南方电网"大瓦特"采用轻量化设计,侧重边缘部署与实时响应;而"光明"与"擎源"更注重知识的深度挖掘与复杂逻辑推理能力的构建。

6.2.2 数据处理策略对比
模型 数据类型 数据规模 预处理技术 特征工程
光明电力大模型 文本、图像、视频、时序 11亿用户数据 多模态对齐、知识蒸馏 跨模态特征融合
大瓦特 图像、时序、文本 4180万张电力图像 轻量化剪枝、量化压缩 空间-时间特征联合提取
擎源 设备数据、运行数据、环境数据 450GB高质量数据 数字孪生校正、异常值检测 多物理场特征融合
EnergyTS 2.0 气象、地理、设备时序 1122万时序数据点 小波变换、多尺度分解 气象-功率关联特征
旷冥 气象、设备、电网拓扑 45年再分析资料 物理方程约束、不确定性量化 图结构特征表示
6.2.3 算法创新点对比

光明电力大模型:首创电力领域跨模态对齐算法(PCA),解决多源异构数据融合难题

大瓦特:提出轻量化CV模型与边缘计算优化框架,实现模型体积压缩60%

擎源:构建多能协同动态优化引擎,实现火电-新能源-储能的博弈论优化

EnergyTS 2.0:采用小波变换与混合专家系统(MoE),提升多时间尺度预测精度

旷冥:将物理方程嵌入神经网络,实现物理引导的深度学习

6.3 产业生态构建现状

6.3.1 数据共享机制

国家电网:建成电力行业最大样本库,包含4180万张图像、3T文本数据,通过"电力数据银行"向合作伙伴开放

南方电网:开放40余个预训练模型,建立"模型即服务"(MaaS)平台

蚂蚁数科:开源Energy-EVA评测基准,包含1122万个时序数据点,推动行业技术评估标准化

6.3.2 标准体系建设

国家标准:《电力行业人工智能大模型技术规范》(GB/T 2025XXXX)已立项,由国网、南网、国家能源集团共同起草

行业标准:中国电力企业联合会发布《电力人工智能模型评估导则》,明确模型性能、安全、伦理等评估指标

团体标准:IEEE PES成立"电力AI大模型工作组",推动国际标准制定

6.3.3 生态合作模式

产学研合作:华为、百度提供算力支持,清华大学、浙江大学参与算法研发

场景验证合作:龙源电力、金风科技、协鑫能科等提供真实场景验证环境

开发者生态:南网"大瓦特"开放平台吸引200+第三方开发者,开发专用插件50余个

6.4 商业模式创新

6.4.1 盈利模式对比
模型 主要收入来源 收费模式 客户群体
光明电力大模型 软件授权费、技术服务费 按节点/年订阅 电网企业、发电集团
大瓦特 解决方案销售、运维服务费 项目制+运维年费 省级电网公司、地方能源企业
擎源 咨询服务费、优化效益分成 基础服务费+超额利润分成 大型发电集团、能源央企
EnergyTS 2.0 API调用费、定制化开发费 按调用量计费+项目制 新能源开发商、电力交易商
旷冥 预警服务费、预测精度保障费 基础服务费+精度达标奖励 电网调度机构、新能源电站
6.4.2 典型商业案例

国家电网"光明":与华为合作推出"智能电网联合解决方案",已在26个省级电网部署,合同金额超50亿元

南方电网"大瓦特":为广东电网提供配网智能巡视服务,单项目年服务费达8000万元

国家能源集团"擎源":与沙特ACWA Power合作,为其新能源项目提供智能运维服务,合同期5年金额3亿美元

蚂蚁数科EnergyTS 2.0:为协鑫能科提供电力交易辅助决策服务,助其单月收益提升12.24%

国能日新"旷冥":为国家电网甘肃电力提供风光功率预测服务,弃风率降低5个百分点

第七章 电力大模型面临的挑战与未来趋势

7.1 当前面临的技术挑战

7.1.1 数据质量与标注难题

数据孤岛问题:不同企业、不同系统间数据格式不统一,共享难度大

标注成本高昂:电力专业数据标注需要领域专家参与,成本是普通数据的5-10倍

小样本学习困境:罕见故障样本不足(如百万分之一概率的事件),导致模型泛化能力差

7.1.2 模型性能瓶颈

实时性约束:电网调度要求毫秒级响应,而大模型推理延迟通常在秒级以上

可解释性不足:深度学习模型的"黑箱"特性导致决策过程难以追溯,影响电网调度员的信任度

极端场景失效:在未见过的极端天气或故障模式下,模型预测误差显著增大

7.1.3 安全与伦理风险

对抗攻击威胁:恶意构造的输入数据可能导致模型输出错误决策

数据隐私泄露:电力数据包含用户用电行为等敏感信息,存在隐私泄露风险

算法偏见问题:训练数据中的地域、季节偏差可能导致模型在某些场景下表现不佳

7.2 未来技术发展趋势

7.2.1 算法创新方向

神经符号融合:结合符号推理的可解释性与深度学习的泛化能力,如将物理方程作为约束条件嵌入神经网络

量子机器学习:利用量子计算的并行计算能力加速模型训练与推理,如量子支持向量机用于故障分类

联邦学习深化:在保护数据隐私的前提下实现跨企业模型协同训练,如电网公司与新能源电站联合训练预测模型

7.2.2 架构优化方向

动态架构搜索:根据任务需求自动调整模型结构,如AutoML技术在电力模型中的应用

存算一体芯片:开发专为AI设计的芯片架构,降低大模型推理功耗(目标:降低50%以上)

边缘智能升级:推动大模型轻量化技术,实现在无人机、巡检机器人等边缘设备的部署

7.2.3 应用场景拓展

虚拟电厂:大模型将成为虚拟电厂的"大脑",实现分布式资源的聚合优化

需求响应:通过分析用户用电行为,精准引导需求侧响应

碳足迹追踪:构建全生命周期碳排放模型,助力电力系统碳中和

7.3 产业发展趋势预测

7.3.1 市场规模预测

据IDC预测,中国电力行业AI大模型市场规模将从2025年的32亿元增长至2030年的280亿元,年复合增长率达54.3%。其中:

电网企业:占比55%,主要用于智能调度、设备运维

发电企业:占比30%,主要用于新能源预测、多能协同

新兴技术公司:占比15%,主要提供算法与解决方案

7.3.2 竞争格局演变

头部集中化:国家电网、南方电网、国家能源集团等央企凭借数据优势占据主导地位

专业化分工:新兴技术公司聚焦细分场景(如预测、交易),形成差异化竞争

国际化拓展:中国电力大模型企业将跟随"一带一路"倡议出海,如国能日新"旷冥"已进入东南亚市场

7.3.3 政策与监管趋势

标准体系完善:2026年前将出台电力AI大模型安全评估、数据治理等专项标准

示范工程推广:国家将设立10个以上电力AI大模型应用示范工程,给予资金补贴

国际合作加强:参与全球能源互联网建设,推动电力AI大模型的跨境互认

结论:电力大模型的产业价值与战略意义

8.1 对电力系统运行的价值

电力大模型正在深刻改变电力系统的运行方式,其核心价值体现在三个维度:

安全维度:将设备故障预测准确率从75%提升至95%以上,重大事故发生率降低60%,保障电力系统安全稳定运行

经济维度:通过智能调度优化,降低系统运行成本8%-12%,提升新能源消纳率5-8个百分点,释放巨大经济价值

效率维度:将人工巡检工作量减少70%,电力交易决策时间从小时级压缩至分钟级,提升全要素生产率

8.2 对能源转型的推动作用

加速新能源消纳:通过高精度预测与智能调度,解决新能源"靠天吃饭"的难题,预计到2030年将新能源消纳率提升至98%以上

促进多能互补:实现火电、水电、新能源、储能的协同优化,构建"源网荷储"一体化的新型电力系统

赋能能源革命:为虚拟电厂、需求响应、碳交易等新业态提供技术支撑,推动能源产业数字化转型

8.3 对科技创新的引领作用

带动基础理论研究:促进人工智能、电力系统、气象学等多学科交叉融合,催生新的理论成果

推动工程技术进步:带动传感器、芯片、通信等上下游产业技术升级,如边缘计算芯片、低功耗传感器的研发

培养高端人才队伍:形成"AI+电力"的复合型人才培养体系,为能源行业数字化转型提供智力支持

8.4 未来展望

随着技术的不断成熟与应用的持续深化,电力大模型将呈现三大发展趋势:

从"工具"到"伙伴":模型将从辅助决策向自主决策演进,成为电力系统运行的"数字员工"

从"单体"到"生态":形成跨企业、跨行业的协同创新生态,实现资源共享与能力互补

从"国内"到"全球":中国电力大模型技术将走向世界,为全球能源转型贡献中国智慧

正如国家电网董事长辛保安所言:"电力大模型不仅是技术革新,更是生产力与生产关系的深刻变革。“在这场由人工智能驱动的能源革命中,电力大模型正成为构建新型电力系统、实现"双碳"目标的"智慧大脑”,引领电力行业迈向更加智能、高效、可持续的未来。


附录

人工智能大模型相关专业词语及定义表格

专业词语 定义概念
大语言模型(LLM) 基于深度学习的大规模神经网络模型,通过海量文本数据训练,具备理解、生成人类语言的能力,核心特征是参数规模大(通常数百亿以上)、泛化能力强,可处理文本生成、问答、翻译等任务。
Transformer架构 2017年由谷歌提出的神经网络架构,是大语言模型的主流架构。其核心是自注意力机制,可高效处理序列数据中的长距离依赖关系,支持高度并行化计算,由多头自注意力层和前馈神经网络层组成。
注意力机制(Attention) 大语言模型的核心组件,允许模型在处理序列数据时,动态为输入的不同部分分配“注意力权重”,聚焦于当前任务最相关的部分(如词语与上下文的关系)。Transformer中的自注意力计算序列内部元素的相关性,多头注意力并行运行多个注意力头,从不同角度捕捉信息。
Token(词元) 大模型处理文本的基本单位,是语言中有独立含义的最小实体(如英文的“un-”“believe”“-able”,中文的“人”“工”“智能”)。原始文本需分割为Token后,转换为模型可识别的数字编码。
参数量 衡量大模型规模的关键指标,指模型中可调节的数值总数(如175B表示1750亿参数)。参数量越多,模型学习能力越强,但需更多计算资源和数据训练。
涌现(Emergence) 大模型达到一定规模后,突然展现出的新能力(如复杂推理、创造性写作),这些能力未在训练中明确教授,是规模扩大后的质变结果。
泛化(Generalization) 模型将训练中学到的知识和能力,应用到新未见过的数据或任务上的能力。良好的泛化是大模型适应不同场景的核心要求。
位置编码(Positional Encoding) Transformer架构中的技术,向输入序列的每个元素添加位置信息(因Transformer无序列记忆能力),帮助模型理解词语的顺序和上下文关系。
嵌入层(Embedding Layer) 将离散的Token(如单词、子词)映射到连续高维向量空间的层,通过向量间的距离表示语义相似性(如“国王”与“女王”的向量距离近于“国王”与“汽车”)。
混合专家模型(MoE) 由多个“专家”网络并行处理输入,通过门控机制选择最合适的专家输出结果的模型架构。适合大规模数据处理,平衡计算效率与性能。
预训练(Pre-training) 大模型训练的第一阶段,通过自监督学习在海量无标注文本数据(如互联网文本)上训练,学习通用语言表征能力(如语法、常识),形成“基础模型”。
微调(Fine-tuning) 在预训练模型基础上,用特定领域或任务的标注数据(如医疗报告、法律文书)调整参数,适配下游任务的过程。本质是迁移学习,利用预训练的通用知识提升特定场景性能。
思维链(CoT) 提示工程的一种技术,让模型在生成答案前,先输出推理过程(如“首先分析问题,然后列出步骤,最后得出结论”),提升复杂任务(如数学推理、逻辑分析)的准确性。
少样本学习(Few-shot Learning) 用少量标注样本(通常1-10个)训练模型的方法,通过提示工程(如“示例:输入→输出”)引导模型学习新任务,减少对大规模标注数据的依赖。
零样本学习(Zero-shot Learning) 无需任何标注样本,仅通过任务描述(如“请将以下句子翻译成英文”)让模型完成新任务的方法,依赖模型的泛化能力和语言理解。
指令微调(Instruction Fine-tuning) 微调的一种方式,用“指令-答案”对(如“翻译:原文→正确翻译”)训练模型,提升模型遵循人类指令的能力。
自监督学习(Self-supervised Learning) 预训练的核心方法,从无标注数据中自动生成标签(如“文本补全”“掩码语言建模”),让模型学习数据中的模式和结构。
温度(Temperature) 生成模型中的超参数,控制输出的随机性:温度越高,输出越随机(更具创造性);温度越低,输出越确定(更符合训练数据)。
蒸馏(Distillation) 模型压缩技术,让大模型(“教师”)将知识传递给小模型(“学生”),使小模型在保持性能的同时,减少计算资源和存储需求(如将千亿参数模型压缩为十亿参数)。
缩放定律(Scaling Law) 描述大模型性能与规模(参数量、数据量、计算资源)关系的规律:规模增加时,性能按幂律关系持续提升(“越大越好”)。
知识蒸馏 同“蒸馏”,是模型压缩的核心技术之一,通过“教师-学生”框架传递知识。
量化(Quantization) 将模型参数和激活值从高比特(如32位浮点数)映射到低比特(如8位整数)的技术,减少存储需求和计算复杂度,加速推理(如将“高清无损”模型压缩为“手机预览版”)。
剪枝(Pruning) 模型优化技术,移除神经网络中冗余的权重或神经元(如接近0的权重),简化模型结构,降低计算量和存储需求。
稀疏化(Sparsification) 使模型参数或激活值变得稀疏(如大部分为0)的技术,减少计算资源消耗,提升推理效率。
低秩分解(Low-Rank Factorization) 将高维矩阵近似为两个低维矩阵的乘积,减少模型参数量,降低计算成本(如将1000×1000矩阵分解为100×10和10×1000的矩阵)。
模型压缩 通过量化、剪枝、蒸馏等技术,减少模型的参数量、存储需求和计算复杂度,使其能在资源有限的设备(如手机、边缘设备)上运行。
权重共享(Weight Sharing) 神经网络中的技术,不同位置使用相同的权重(如卷积神经网络中的滤波器重用),减少参数数量,降低过拟合风险。
推理(Inference) 模型训练完成后,用学到的知识对输入数据(如文本、图像)进行预测或生成输出(如回答、翻译)的过程,是模型的实际应用阶段。
生成式AI(Generative AI) 能创造新内容(如文本、图像、音频)的AI,大语言模型是其核心应用之一(如ChatGPT生成文本)。
检索增强生成(RAG) 结合检索与生成的技术,先从外部知识库(如文档、数据库)检索相关信息,再将信息输入大模型生成答案,提升回答的准确性和时效性(如回答“2025年最新科技新闻”时,检索最新文档)。
提示工程(Prompt Engineering) 设计高效提示(Prompt),引导大模型生成符合要求的输出的技术(如“请用简洁的语言总结以下文章”)。好的提示可显著提升模型性能。
上下文学习(In-Context Learning) 大模型通过输入中的上下文(如示例、问题)学习新任务的能力,无需调整模型参数(如“示例:输入‘苹果’→输出‘水果’;输入‘胡萝卜’→输出?”时,模型输出“蔬菜”)。
代理(Agent) 以大语言模型为大脑,具备自主理解、感知、规划、记忆和使用工具能力的系统,能自动化执行复杂任务(如“帮用户预订机票:先查航班,再选座位,最后支付”)。
多模态大模型 能同时处理多种模态数据(如文字、图像、声音)的大模型,可输入“文字+图片”,输出“写诗+画图”,具备信息互补、增强理解的优势。
智能体(AI Agent) 同“代理”,是大模型的应用形态之一,能自主完成任务(如Manus等爆火的智能体)。
AI幻觉(AI Hallucination) 大模型“一本正经地胡说八道”的现象,即生成看似合理但与事实不符的内容(如编造不存在的文献引用、错误的事实陈述),原因是模型对训练数据的过拟合或泛化能力不足。
偏见(Bias) 模型因训练数据或设计中的不公平因素,对特定群体(如性别、种族)产生歧视性输出的现象(如“护士”默认是女性,“工程师”默认是男性)。
公平性(Fairness) 模型在不同群体间表现公正的能力,需避免偏见,确保所有用户得到公平对待(如招聘模型不歧视女性)。
可解释性(Explainability) 模型决策过程的透明度和可理解性,即能清楚解释“为什么做出某个预测”(如“为什么认为这篇文章是垃圾邮件”),对建立用户信任至关重要。
安全对齐(Safety Alignment) 确保大模型输出符合人类价值观和安全规范的技术(如避免生成有害内容、拒绝恶意请求),是大模型落地的关键挑战之一。
人类对齐(Human Alignment) 让大模型的目标和行为与人类意图一致的技术(如通过RLHF优化模型输出,使其更符合人类偏好),是大模型“有用、无害、诚实”的核心要求。
隐私保护(Privacy Protection) 保护用户数据隐私的技术(如差分隐私、同态加密),确保大模型在训练和使用过程中不泄露用户敏感信息(如医疗记录、金融数据)。
开源(Open Source) 将大模型的源代码、模型权重、训练数据等公开,供全球开发者使用、修改和分发的模式(如LLaMA、GPT-2),促进技术创新和生态发展。
闭源(Closed Source) 不公开大模型的源代码和模型权重,仅提供API接口的模式(如ChatGPT、文心一言),技术壁垒高但生态封闭。
算力(Computational Power) 大模型训练和推理所需的计算能力,主要由GPU、TPU等硬件提供。算力是大模型的“思考速度”,决定了模型能否处理大规模数据和复杂任务(如训练千亿级模型需要数千块A100 GPU)。
长程依赖(Long-range Dependencies) 序列数据中远距离元素之间的关系(如“我昨天买了本书,今天想读它”中的“书”与“它”),大模型通过自注意力机制捕捉这种关系。
过拟合(Overfitting) 模型在训练数据上表现很好,但在新数据上表现差的现象(如“只认识训练过的猫的图片,不认识没见过的猫”),需通过正则化、早停法等技术避免。
幻觉率(Hallucination Rate) 大模型生成幻觉内容的比例,是衡量模型可靠性的重要指标(如“100个回答中有10个是幻觉,则幻觉率为10%”)。
上下文窗口(Context Window) 大模型能处理的输入文本的最大长度(如128K Token),超过窗口长度的文本会被截断,影响模型性能(如长篇文章的总结)。
指令微调数据(Instruction Fine-tuning Data) 用于指令微调的标注数据,由“指令-答案”对组成(如“翻译:Hello→你好”),帮助模型学习遵循人类指令。
掩码语言建模(MLM) 预训练的一种任务(如BERT中的“填空”),将输入文本中的部分Token替换为掩码(如[MASK]),让模型预测被掩码的Token,学习上下文语义。
下一单词预测(Next-Word Prediction) 预训练的核心任务(如GPT中的文本补全),给定输入序列,让模型预测下一个Token,学习语言的顺序模式。
多任务学习(Multi-task Learning) 让模型同时学习多个任务(如文本生成、问答、翻译),通过共享参数提升泛化能力的技术。
迁移学习(Transfer Learning) 将预训练模型的知识迁移到新任务的技术,通过微调或提示工程,使模型适应新场景(如用预训练的GPT模型做医疗问答)。
强化学习(Reinforcement Learning) 通过奖励信号(如人类反馈)优化模型输出的技术(如RLHF),让模型生成更符合人类偏好的内容。
人类反馈的强化学习(RLHF) 强化学习的一种,通过人类标注的奖励信号(如“这个回答好”“这个回答差”)优化模型,提升其对齐人类价值观的能力(如ChatGPT的训练)。
模型评估(Model Evaluation) 衡量模型性能的过程,通过测试集(未见过的数据)评估模型的准确率、召回率、F1分数等指标(如用BLEU分数评估机器翻译性能)。
混淆矩阵(Confusion Matrix) 用于评估分类模型性能的表格,显示实际类别与预测类别的对比(如“真正例”“假正例”“真反例”“假反例”),帮助分析模型的错误类型。
BLEU分数(BLEU Score) 衡量机器翻译性能的指标,通过比较机器翻译结果与参考翻译的词汇匹配程度,值越高表示翻译质量越好(范围0-1)。
ROUGE分数(ROUGE Score) 衡量文本摘要性能的指标,通过比较摘要与参考摘要的词汇重叠程度,值越高表示摘要质量越好(包括ROUGE-1、ROUGE-2、ROUGE-L)。
F1分数(F1 Score) 衡量分类模型性能的指标,是精确率(Precision)和召回率(Recall)的调和平均,值越高表示模型性能越好(范围0-1)。
精确率(Precision) 分类模型中,预测为正类的样本中真正正类的比例(如“预测100个猫的图片,其中90个是真猫,则精确率为90%”)。
召回率(Recall) 分类模型中,真正正类的样本中被预测为正类的比例(如“有100个真猫,模型预测出90个,则召回率为90%”)。
AUC-ROC曲线(AUC-ROC Curve) 衡量二分类模型性能的图形工具,展示模型区分正负类的能力,AUC值越接近1表示性能越好(范围0-1)。
模型校准(Model Calibration) 确保模型预测的概率反映真实发生概率的技术(如“模型预测某事件发生的概率为80%,则真实发生概率应接近80%”),对需要概率估计的任务(如风险评估)很重要。
偏差-方差权衡(Bias-Variance Tradeoff) 模型复杂度与误差之间的关系:高偏差(模型简单)导致欠拟合,高方差(模型复杂)导致过拟合,需找到平衡点(如通过正则化调整模型复杂度)。
数据清洗(Data Cleaning) 处理数据中的错误、不完整、重复或无关数据的过程(如删除重复的训练样本、纠正错误的标签),提高数据质量,避免模型过拟合。
数据增强(Data Augmentation) 通过变换原始数据生成新数据(如图像旋转、文本替换同义词),增加数据多样性,提升模型泛化能力的技术。
合成数据(Synthetic Data) 通过算法生成的人工数据

学AI大模型的正确顺序,千万不要搞错了

🤔2026年AI风口已来!各行各业的AI渗透肉眼可见,超多公司要么转型做AI相关产品,要么高薪挖AI技术人才,机遇直接摆在眼前!

有往AI方向发展,或者本身有后端编程基础的朋友,直接冲AI大模型应用开发转岗超合适!

就算暂时不打算转岗,了解大模型、RAG、Prompt、Agent这些热门概念,能上手做简单项目,也绝对是求职加分王🔋

在这里插入图片描述

📝给大家整理了超全最新的AI大模型应用开发学习清单和资料,手把手帮你快速入门!👇👇

学习路线:

✅大模型基础认知—大模型核心原理、发展历程、主流模型(GPT、文心一言等)特点解析
✅核心技术模块—RAG检索增强生成、Prompt工程实战、Agent智能体开发逻辑
✅开发基础能力—Python进阶、API接口调用、大模型开发框架(LangChain等)实操
✅应用场景开发—智能问答系统、企业知识库、AIGC内容生成工具、行业定制化大模型应用
✅项目落地流程—需求拆解、技术选型、模型调优、测试上线、运维迭代
✅面试求职冲刺—岗位JD解析、简历AI项目包装、高频面试题汇总、模拟面经

以上6大模块,看似清晰好上手,实则每个部分都有扎实的核心内容需要吃透!

我把大模型的学习全流程已经整理📚好了!抓住AI时代风口,轻松解锁职业新可能,希望大家都能把握机遇,实现薪资/职业跃迁~

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐