【无线通信论文翻译】基于拆分联邦学习的车载边缘智能:概念、自适应设计与未来方向
为在未来车载网络中实现泛在智能,人工智能(AI)对于从车载数据中提取有价值信息以增强 AI 驱动服务至关重要。通过将 AI 技术整合到车载边缘计算(VEC)平台(该平台可提供必要的存储、计算和网络资源)中,车载边缘智能(VEI)可得以充分实现。作为 VEI 的支撑技术之一,传统集中式学习不仅给网络带宽带来巨大压力,还会增加延迟并引发隐私问题。如今,联邦学习(FL)、拆分学习(SL)和拆分联邦学习(
[Qiang2025]X. Qiang, Z. Chang, C. Ye, T. Hämäläinen and G. Min, “Split Federated Learning Empowered Vehicular Edge Intelligence: Concept, Adaptive Design, and Future Directions,” in IEEE Wireless Communications, vol. 32, no. 4, pp. 90-97, August 2025
文章目录
摘要
为在未来车载网络中实现泛在智能,人工智能(AI)对于从车载数据中提取有价值信息以增强 AI 驱动服务至关重要。通过将 AI 技术整合到车载边缘计算(VEC)平台(该平台可提供必要的存储、计算和网络资源)中,车载边缘智能(VEI)可得以充分实现。作为 VEI 的支撑技术之一,传统集中式学习不仅给网络带宽带来巨大压力,还会增加延迟并引发隐私问题。如今,联邦学习(FL)、拆分学习(SL)和拆分联邦学习(SFL)等分布式机器学习方法已被广泛应用于车载网络以支持 VEI。然而,由于车载网络固有的移动性和资源受限特性,这些方法仍面临重大挑战。
本文首先概述了 VEI 设计相关的系统架构、性能指标及面临的挑战;随后介绍了 SFL 的自适应设计,即自适应拆分联邦学习(ASFL)。所提出的 ASFL 方案可动态调整切割层选择过程并以并行方式运行,在非独立同分布(非 IID)数据场景下,既能优化通信与计算效率,又能提升模型性能;最后,本文指出了未来的研究方向,为 SFL 的高效设计提供参考。
1. 引言
在无线通信和物联网(IoT)技术发展的推动下,智能交通系统(ITS)已成为提升交通安全性、效率和自主性的重要途径。通过将人工智能(AI)技术整合到车载边缘计算(VEC)平台(该平台可提供必要的存储、计算和网络资源)中,车载边缘智能(VEI)可得以充分实现。近年来,研究人员正将VEI视为推动ITS发展的关键要素[1]。机器学习(ML)方法在ITS各类应用中展现出巨大潜力,例如目标检测、交通标志分类、拥堵预测以及速度/加速度预测[2]。然而,传统上将原始数据传输至集中式服务器进行机器学习处理的方式,不仅带来了严重的隐私风险,还对无线通信的带宽提出了极高要求。
随着人们对隐私保护的重视程度不断提升,且边缘计算在车载网络中广泛部署,联邦学习(FL)已成为实现VEI的一种极具潜力的分布式学习框架。通过联邦学习,车辆可利用私有数据训练本地模型,随后将本地模型上传至路边单元(RSU),由RSU完成模型聚合。尽管联邦学习在VEI中具有应用潜力,但仍面临诸多挑战[3]。其中一个关键问题是参与训练的客户端(车辆)之间存在高度异质性[4]。本地数据的差异会导致各客户端的模型更新近乎正交,这不仅削弱了全局模型的更新效果,还会减缓模型的收敛速度[5]。联邦学习面临的另一主要问题是如何保护用户隐私——第三方实体或RSU仍有可能通过模型参数或梯度获取敏感信息[6]。此外,随着人工智能技术的发展,我们已进入大模型时代,模型的规模和复杂度正不断提升。在资源受限的车辆上训练完整的大型模型,无疑是一项巨大的挑战。
与此同时,拆分学习(SL)也是实现VEI的核心技术之一。在拆分学习中,整个AI模型(如卷积神经网络CNN)会通过切割层划分为多个子模型(如整个CNN中的若干层),并将这些子模型分配给不同的实体(例如,车辆端部署车载侧模型,RSU端部署RSU侧模型)[7]。通过将计算密集型部分卸载至RSU,同时在本地保留隐私敏感部分,拆分学习能够显著降低资源受限设备在模型训练过程中的计算负载,在推动未来ITS发展方面具有巨大潜力。然而,直接采用序列化的拆分学习方式可能会增加额外的通信负载和时间延迟。
值得关注的是,一种名为拆分联邦学习(SFL)的新型框架结合了拆分学习和联邦学习的理念,实现了训练过程的并行化[8]。在车载网络的拆分联邦学习中,车辆会下载车载侧模型并执行前向传播,随后将“粉碎数据”(smashed data,即切割层的前向传播输出)上传至RSU;接着,RSU利用接收到的粉碎数据执行前向传播和反向传播,并广播粉碎数据的梯度;之后,更新后的车载侧模型会被上传至RSU,由RSU完成模型聚合。与拆分学习相比,拆分联邦学习不仅降低了通信负载和延迟,还减轻了车辆的计算负担,更适用于VEC系统。具体而言,拆分联邦学习的优势体现在三个方面:首先,它允许车辆在不泄露数据隐私的前提下参与训练,从而降低了数据泄露风险,同时提高了车辆的参与度,可获取更丰富的数据;其次,通过将部分模型卸载至RSU,拆分联邦学习缓解了车辆的计算瓶颈;最后,与拆分学习相比,这种并行化设计大幅提升了拆分联邦学习方案的可扩展性,使得系统在RSU通信范围内能够容纳更多车辆(尤其是在高速移动场景下)。这些优势为协同自动驾驶、智能交通导航等新兴应用的发展提供了可能。
然而,由于车载网络固有的移动性和资源受限特性,拆分联邦学习在VEI中的应用仍面临新的挑战。首先,在训练过程中,持续移动的车辆可能会驶出RSU的通信范围,导致训练中断。因此,如何选择尽可能多的、能够成功传输数据的车辆参与训练,已成为一个关键问题。其次,不同车辆的计算能力存在显著差异。选择不同的切割层会影响系统延迟、能耗,甚至隐私保护效果。对于不同的车载侧模型,如何选择最优切割层以最小化延迟和能耗、最大化隐私保护效果,是另一项重要挑战。最后,与联邦学习相比,拆分联邦学习将部分模型卸载至RSU,虽减轻了车辆端的计算负载,却增加了通信负载,本质上是用通信时间换取计算时间。由于单轮训练中有大量车辆参与,如何平衡系统的计算延迟和通信延迟以最小化整体系统延迟,也是需要重点考虑的问题。
基于切割层选择的必要性,本文提出了自适应拆分联邦学习(ASFL)方案,作为一种先进的解决方案,以克服传统拆分联邦学习在VEC系统中的局限性。自适应拆分联邦学习能够动态适应不稳定的网络环境和车辆能力,优化切割层选择,并平衡计算与通信之间的权衡关系。本文首次全面概述了基于拆分联邦学习的车载边缘智能,为该领域的研究提供了参考。
本文其余部分结构如下:首先阐述背景信息,包括VEI相关的系统架构、性能指标以及面临的挑战,重点关注分布式实现方式;接着介绍新型并行化自适应ASFL方案(作为VEI的支撑技术),并通过案例研究评估其在真实通信环境中的性能;最后,探讨未来研究的开放方向。
2.车载边缘智能:架构、性能指标与挑战
在本节中,我们首先介绍系统架构,然后从训练与测试、时间与能耗、隐私与安全等方面介绍车载网络系统的智能指标。接着,我们分析实现车载边缘智能(VEI)在分布式部署方面面临的挑战。
2.1 系统架构
车载边缘智能(VEI)借助车辆的计算与通信资源,并结合人工智能技术实现。VEI的模型训练依赖于对海量车辆采集数据的有效利用。VEI的实现方式可分为四类,分别是集中式机器学习(CL)以及联邦学习(FL)、拆分学习(SL)、拆分联邦学习(SFL)这三种分布式协同学习方法,四种方法的具体细节如图1所示。
集中式学习(CL)会将训练数据聚合到云端数据中心等集中式节点。然而,将海量车载数据传输至这些节点会给网络带宽带来巨大压力,进一步加剧延迟问题。此外,车载数据通常包含敏感信息,例如与用户相关的个人数据(如车牌号、面部特征、车辆详细信息等)。因此,为保护用户隐私,将数据保留在本地设备上的需求变得尤为迫切。
分布式协同学习已成为研究界探索的一种极具潜力的技术方法,旨在解决集中式学习面临的挑战。通常而言,分布式协同学习通过协同方式联合训练全局模型,且无需直接获取分散的原始数据。这种方法对于需利用车辆中广泛分布的海量数据的应用具有重要吸引力。值得注意的是,联邦学习(FL)和拆分学习(SL)是分布式协同学习领域中两种具有代表性的新兴方法。
联邦学习(FL)允许众多数据所有者协同训练一个共享的人工智能模型,且无需泄露各自的私有数据。在联邦学习中,每辆车利用自身数据独立训练本地人工智能模型,随后这些本地模型会被上传至路边单元(RSU),由RSU聚合形成全局模型。通过将数据保留在车辆本地,联邦学习实现了对数据隐私的保护,是解决车联网(IoV)中数据隐私挑战的一种极具潜力的方案。然而,联邦学习要求每辆车具备足够的资源来训练人工智能模型,这对于资源受限的车辆而言颇具挑战,尤其是在处理深度神经网络这类复杂模型时。
拆分学习(SL)是另一种分布式协同学习方法,其核心是将完整模型拆分后,由车辆和RSU协同训练。拆分学习的运行主要包含三个步骤:首先,车辆下载车载侧模型并执行前向传播,将“粉碎数据”(即切割层的前向传播输出)传输至RSU;接着,RSU以粉碎数据为输入,对RSU侧模型执行前向传播和反向传播,输出粉碎数据的梯度,并将该梯度发送回车辆,供车辆用于车载侧模型的反向传播与更新;最后,更新后的车载侧模型会传输给下一辆车,重复上述过程,直至所有车辆完成训练。通过将部分完整模型卸载至RSU,拆分学习能够灵活利用计算资源支持模型训练。但拆分学习中车辆与RSU的序列化协同方式,限制了其利用海量车辆中分散的大量数据进行模型训练的能力。
拆分联邦学习(SFL)结合了拆分学习(SL)和联邦学习(FL)的优势,不仅允许车辆将部分训练模型卸载至RSU,还能实现并行训练。拆分联邦学习的运行主要包含三个步骤:首先,所有车辆从RSU下载车载侧模型,执行前向传播后将粉碎数据上传至RSU;随后,RSU侧模型利用接收到的粉碎数据执行前向传播和反向传播,再将粉碎数据的梯度分别发送给各车辆以进行模型更新;最后,各车辆将更新后的车载侧模型上传至RSU,由RSU完成聚合。
(图1:集中式学习、联邦学习、拆分学习和拆分联邦学习的工作流程)
2.2车载边缘智能(VEI)性能指标
- 训练与测试性能
对于人工智能模型而言,性能是评估其有效性的根本标准。训练精度是衡量模型学习能力的关键指标,反映模型在训练数据上的表现;与之相对,测试精度则是评估模型泛化能力的核心指标,体现模型在未见过的数据上的表现。此外,人工智能模型的收敛性也是一项重要考量因素,它反映了训练过程的稳定性与效率,确保模型能够达到最优状态。因此,在车载网络环境中的人工智能模型设计中,除了要考虑计算能力、无线资源分配等挑战外,还必须重点关注模型性能,以保障其在数据非独立同分布(非IID)场景下的学习能力、泛化能力与收敛能力。 - 时间与能量性能
在车载网络中,由于车辆具有高速移动的特性,各类任务往往对时间高度敏感。鉴于不同车辆在路边单元(RSU)通信范围内停留的时间较短且具有不确定性,整个系统的模型训练时间成为一项关键指标。同时,能耗也是一项重要的评估标准。车辆的核心功能是交通运输,尽管利用车载数据进行模型训练能够提升乘客体验,但在训练过程中必须避免过度消耗能量,以防对车辆的核心运输功能造成影响。因此,能耗也需纳入VEI系统的性能考量范畴。 - 隐私与安全性能
随着人们对数据隐私的关注度不断提升(尤其是在联网车辆领域),数据泄露不仅会威胁财产安全,还可能对个人安全与交通安全构成更严重的风险。相关隐私法规,如欧盟的《通用数据保护条例》(GDPR)或美国的《加州消费者隐私法案》(CCPA),对收集和直接使用用户感知数据进行模型训练与推理施加了限制。
在联邦学习(FL)中,客户端上传的本地梯度可能被攻击者利用,用于推断数据样本的归属[10];而在拆分学习(SL)中,尽管数据所有者与标签所有者仅共享中间数据(即粉碎数据与切割层梯度),但二者仍面临隐私问题——数据所有者共享的粉碎数据(即提取的特征)可能被攻击者用于重构其训练数据[11]。为减轻网络侧隐私保护的负担,模型训练框架需将原始数据保留在本地车辆中,或采用差分隐私等隐私保护技术[12]4。
2.3 挑战
在本节中,我们将从不同层面(图2)重点分析分布式机器学习在实现车载边缘智能(VEI)过程中面临的挑战。
(图2:车载边缘智能(VEI)系统架构)
- 数据层挑战
车载边缘智能的智能性源于其训练过程中所使用的、从车辆获取的大量数据。从数据层角度来看,车载网络要实现车载边缘智能,主要面临两大挑战。首先,大量设备会产生海量数据,这意味着训练过程需要消耗更多能量,而且并非所有数据都具有价值,甚至有许多数据存在冗余。其次,在车联网(IoV)中,参与训练的数据具有高度异质性,这些数据可能来自不同类型的车辆、不同的地理位置以及不同的行驶工况。这种异质性给模型训练带来了巨大挑战,因为模型需要有效捕捉并适应这些差异🔶1-49。 - 计算层挑战
计算能力对于训练更复杂的人工智能模型以提供智能服务至关重要,尤其是在我们迈入大模型时代的背景下。然而,考虑到任务对时间的敏感性,在计算能力受限的车辆上训练人工智能模型,可能会耗费过多时间。此外,计算平台的异质性也是一项重大挑战——不同类型的车辆拥有不同的计算能力,这会导致系统运行不稳定。不仅如此,大型人工智能模型本身也带来了挑战:传统联邦学习(FL)要求在每个设备上训练完整的模型,这对于资源受限的车辆而言可能并不现实。事实上,在车辆上运行大型模型并不经济,因为这会消耗大量能量。车辆的核心功能是智能交通,因此,为了模型训练而牺牲过多交通所需能量是不必要的。 - 通信层挑战
在分布式学习中,高性能无线网络对于加速车载边缘智能的实现起着关键作用,因为模型训练过程中的中间参数需要通过无线网络传输。例如,在联邦学习中,模型会并行上传至路边单元(RSU)进行聚合;而在拆分学习(SL)中,粉碎数据(smashed data)及其对应的梯度必须通过无线网络在车辆与RSU之间传输。然而,由于无线网络本身具有不稳定性、参与训练的车辆数量众多,以及车辆与RSU之间的距离各不相同,并非所有车辆都能获得充足的通信带宽。此外,由于车辆高速移动,部分车辆可能在训练过程中驶出RSU的通信范围,从而阻碍模型训练的完成。 - 系统层挑战
训练架构的不同设计会对车载边缘智能的实现产生多方面影响。选择合适的训练架构不仅会影响系统的性能与效率,还涉及隐私、安全、可扩展性和灵活性等多个方面。集中式训练架构可能会增加数据传输和计算的负担,导致系统延迟和能耗上升,同时还存在数据泄露的风险。相反,分布式训练架构在隐私保护和安全性方面表现更优,并且具有更好的可扩展性和灵活性。因此,选择合适的训练架构至关重要,需要综合考虑多方面因素,以确保车载边缘智能系统高效、安全地运行。在传统拆分学习中,拥有RSU侧模型的RSU必须按顺序为拥有独特本地数据集的车辆提供服务。由于这种序列化的训练过程,每个训练周期的总延迟会随着车辆数量的增加而呈线性增长。这种延迟的增加可能会限制拆分学习的可扩展性,尤其是在大规模智能交通系统(ITS)车辆部署场景中。
3. 自适应并行拆分联邦学习
鉴于上述挑战(如数据非独立同分布、计算资源短缺、通信资源紧张以及系统可扩展性低),本节提出一种自适应拆分联邦学习(ASFL)方案。该系统可根据环境条件为每辆车动态选择切割层,与拆分学习(SL)相比,所提方案降低了通信负载;与联邦学习(FL)相比,该方案减轻了计算负载,从而使分布式学习更能适应车载网络的移动性特征。
3.1自适应拆分联邦学习方案
我们考虑一个包含1个路边单元(RSU)和 N N N辆车辆的通用车载网络。车辆 n n n的数据集记为 D n D_{n} Dn, ∣ D n ∣ |D_{n}| ∣Dn∣代表车辆n的训练数据样本数量。
本方案的目标是协同训练一个全局人工智能模型,该模型需基于所有车辆收集的全局数据集,最小化全局损失函数,公式如下:
min ω L ( ω ) = 1 ∑ n = 1 N ∣ D n ∣ ∑ n = 1 N ∣ D n ∣ L n ( ω ) \min _{\omega} L(\omega)=\frac{1}{\sum_{n=1}^{N}\left|\mathcal{D}_{n}\right|} \sum_{n=1}^{N}\left|\mathcal{D}_{n}\right| L_{n}(\omega) ωminL(ω)=∑n=1N∣Dn∣1n=1∑N∣Dn∣Ln(ω)其中, L n ( ω ) L_{n}(\omega) Ln(ω)表示车辆 n n n的局部损失函数。
在第 t t t轮训练中,车辆 n n n的完整模型 ω t n , ε \omega_{t}^{n, \varepsilon} ωtn,ε包含两个不重叠的子模型(对应第 ε ε ε个切割层),分别表示为车载侧模型 ω t V , ε \omega_{t}^{V, \varepsilon} ωtV,ε和RSU侧模型 ω t S , ε \omega_{t}^{S, \varepsilon} ωtS,ε,其表达式为 ω t n , ε = { ω t V , ε ; ω t S , ε } \omega_{t}^{n, \varepsilon}=\{\omega_{t}^{V, \varepsilon} ; \omega_{t}^{S, \varepsilon}\} ωtn,ε={ωtV,ε;ωtS,ε}。全局模型的更新原理如下:
ω t + 1 = ω t − ∑ n = 1 N 1 N ( ω t + 1 n , ϵ − ω t ) \omega_{t+1}=\omega_{t}-\sum_{n=1}^{N} \frac{1}{N}\left(\omega_{t+1}^{n, \epsilon}-\omega_{t}\right) ωt+1=ωt−n=1∑NN1(ωt+1n,ϵ−ωt)
3.2 自适应拆分联邦学习的工作流程
自适应拆分联邦学习的工作流程如图3所示。
首先,RSU依据切割层选择策略选择不同的切割层,并向不同车辆分发相应的车载侧模型;其次,各车辆利用本地数据集并行训练所接收的车载侧模型,随后将对应的粉碎数据(smashed data)发送至RSU;再次,RSU具备充足的资源和强大的计算能力,它会利用接收到的粉碎数据,依次对RSU侧模型执行前向传播以分别计算损失函数,随后广播粉碎数据的梯度;最后,车辆更新各自的车载侧模型并上传至RSU,RSU将这些车载侧模型与对应的RSU侧模型融合,形成完整模型,再对这些完整模型进行聚合,以实现全局模型的更新。

(图3:自适应拆分联邦学习的工作流程)
3.3 切割层选择策略
在高移动性车载场景中,车辆处于持续移动状态,无线传输信道环境不稳定;此外,不同车辆的传感器和硬件存在差异,导致其数据处理能力和计算能力也有显著不同。为应对这些挑战并提高自适应切割层选择算法的可行性,我们提出一种基于传输速率的相对简单的切割层选择策略。该策略主要旨在探索此类算法的适应性和必要性,重点在于最小化通信延迟,并为未来研究奠定基础。
在我们的案例研究中,假设所有车辆在RSU通信范围内停留的时间相同,因此在选择切割层时,我们仅考虑不同车辆的传输速率。
如图4a所示,拆分学习(SL)的通信负载较大,因为它不仅需要传输车载侧模型,还需要交换用于模型训练的中间消息(粉碎数据和梯度)。与联邦学习(FL)相比,拆分学习(SL)和拆分联邦学习(SFL)通过将部分训练模型卸载到服务器(RSU),能够降低计算负载。本质上,与联邦学习(FL)相比,拆分联邦学习(SFL)是以增加通信负载为代价来减轻计算负载的。
而自适应拆分联邦学习(ASFL)能够动态调整通信负载与计算负载之间的平衡:随着切割层编号的增加(例如SFL2、SFL4、SFL6、SFL8),与联邦学习(FL)相比,通信负载的增量逐渐减小,计算负载的降低幅度也随之减小。因此,当车辆与RSU之间的传输速率较高时,我们会考虑选择较小编号的切割层,通过进一步增加通信负载来更大程度地降低计算负载;反之,当传输速率较低(表明网络拥堵)时,我们会选择编号更大的切割层,以较小的通信负载增量实现较小幅度的计算负载降低。
我们采用ResNet18作为训练用人工智能模型,该模型共有9个拆分点,如图5所示。切割层选择策略定义如下:
c n = { 8 , 0 < r n t ≤ R 1 ‾ 6 , R 1 ‾ < r n t ≤ R 2 ‾ 4 , R 2 ‾ < r n t ≤ R 3 ‾ 2 , R 3 ‾ < r n t ≤ R 4 ‾ c_{n}= \begin{cases}8, & 0<r_{n}^{t} \leq \overline{R_{1}} \\ 6, & \overline{R_{1}}<r_{n}^{t} \leq \overline{R_{2}} \\ 4, & \overline{R_{2}}<r_{n}^{t} \leq \overline{R_{3}} \\ 2, & \overline{R_{3}}<r_{n}^{t} \leq \overline{R_{4}}\end{cases} cn=⎩
⎨
⎧8,6,4,2,0<rnt≤R1R1<rnt≤R2R2<rnt≤R3R3<rnt≤R4其中, r n t r_{n}^{t} rnt表示第 t t t轮训练中车辆 n n n的传输速率, R ˉ 1 ≤ R ˉ 2 ≤ R ˉ 3 ≤ R ˉ 4 \bar{R}_{1} ≤\bar{R}_{2} ≤\bar{R}_{3} ≤\bar{R}_{4} Rˉ1≤Rˉ2≤Rˉ3≤Rˉ4为速率阈值。
4. 性能评估
在本节中,我们将通过实验来评估所提出的自适应拆分联邦学习(ASFL)方案的性能,并与其他基准方案进行对比。
4.1 实验设置
在我们的实验中,我们使用 NVIDIA GeForce RTX 3060 显卡作为路边单元(RSU),而 NVIDIA GeForce RTX 3060 处理器作为车辆。总共有四辆车和一个路边单元,我们使用套接字来实现车辆与服务器之间的通信。
学习率为 0.0001,批量大小为 16,本地轮次为 5。我们考虑了三个基准方案,即联邦学习(FL)、拆分学习(SL)和拆分联邦学习(SFL)。SFL2、4、6、8 中的数字表示切割层的编号。我们使用 CIFAR-10 [13] 作为模拟数据集。值得注意的是,车辆上的数据分布是非独立同分布(non-IID)的,这种情况在实际系统中广泛存在。为了体现这些数据集中移动车辆之间的异质性,我们设定了一个约束条件:每辆车仅保留十种可能标签中的六种,样本量根据文献 [14] 中所述的幂律而变化。ASFL 的官方实现可在 [15] 中获取。
4.2 性能分析
图4a显示,在1个本地轮次和1个全局轮次的设置下,不同方案的通信负载随切割层数量的增加而降低。可以看出,拆分学习(SL)和拆分联邦学习(SFL)的通信负载远高于联邦学习(FL),这是因为模型计算出的中间值需要通过网络传输。
图4b展示了不同系统设计的总训练时间(包含通信时间和计算时间)。序列化的拆分学习(SL)需按顺序与4辆车进行计算和通信,这额外消耗了大量时间。所提出的自适应拆分联邦学习(ASFL)的耗时少于联邦学习(FL)和拆分学习(SL),表明ASFL性能表现优异。尽管ASFL和SL的通信负载远高于FL,但从实验中可得出结论:ASFL的总训练时间略少于FL,这表明ASFL通过增加通信负载来降低计算负载,最终减少全局训练时间的设计是合理的,也体现了ASFL架构的合理性。
图4c呈现了独立同分布(IID)数据分布下的测试性能。如图所示,各SFL方案的性能优于SL和FL。令人意外的是,我们发现SFL方案的模型性能与切割层选择存在关联——选择越靠后的切割层,模型性能越优。
图4d展示了非独立同分布(non-IID)数据分布下的测试性能(在此分布中,每辆车仅选取10类数据中的6类)。其中,SL的性能优于FL;值得注意的是,我们提出的ASFL方案性能优于其他所有对比方案。
5. 未来研究方向
拆分联邦学习(SFL)作为一种分布式学习框架,已引起广泛关注,但相关研究仍处于早期阶段。尤其在车载网络领域,尚有多个研究方向有待进一步探索。
5.1 数据生成与选择
人工智能的优势在于利用大量本地设备数据进行训练。然而,在拆分联邦学习(SFL)中,尽管系统可获取来自众多设备的海量数据,但这些数据通常呈非独立同分布(non-IID)特征,这导致系统模型的学习能力和泛化能力受到限制。随着人工智能生成内容(AIGC)技术的发展,研究人员考虑借助该技术辅助生成数据,以缓解非独立同分布数据分布对模型的影响,进而提升系统性能。不过,将数据生成技术用于训练存在三个关键问题:第一,如何评估或衡量生成数据的有效性;第二,大规模训练数据集往往包含无效或冗余数据,筛选出相关数据对降低通信和计算负担至关重要;第三,在车载网络的移动场景中,如何平衡数据生成与模型训练性能。
5.2 切割层选择
在拆分联邦学习(SFL)中,全局模型通过切割层划分为互不重叠的车载侧模型和路边单元(RSU)侧模型。选择的切割层越靠后,生成的粉碎数据(smashed data)规模越小。随着车辆行驶速度提升,车辆与RSU之间的信道稳定性会减弱,因此需选择更靠后的切割层以降低通信负载;但与此同时,车辆速度加快也会导致其在RSU通信范围内停留的时间缩短,此时选择更靠前的切割层则能减少车载侧模型的计算时间。由此可见,设计切割层选择策略时,需平衡车辆的通信与计算资源,以及时间-能量负载,从而实现整体训练时间最小化,这是一个需要重点考量的问题。
此外,切割层选择策略不仅要考虑计算与通信之间的平衡,还需兼顾隐私保护与成本之间的平衡。切割层越靠后,车载端的计算负载越大、通信负载越小,且粉碎数据的隐私性越好(输出的粉碎数据会更模糊)。因此,针对不同速度和能力的车辆,需研究如何平衡其通信负载与隐私保护。
5.3 拆分推理
随着Transformer、AIGC和大语言模型(LLM)技术的发展,越来越多的智能车载网络服务依赖这些技术提供支持。但将大规模模型直接部署在车辆上进行训练并不可行:一方面,车辆缺乏足够的计算资源支撑此类任务;另一方面,在车辆上运行大型模型会消耗过多能量,进而影响车辆的运输时长。因此,借鉴分布式学习中的拆分学习理念,将Transformer架构模型分解为所谓的“拆分推理”(split inference),已成为一个值得关注的研究方向。该方法可应用于AIGC和LLM辅助的车载网络环境中,在降低车载侧资源需求的同时,保障系统性能与效率。
区分拆分推理与拆分学习(SL)至关重要。在拆分学习中,前向传播过程会共享切割层的输出(即粉碎数据),反向传播过程中仅将粉碎数据的梯度回传至车载端;而拆分推理则是将切割层的输出发送至服务器,无需进行反向传播。
5.4 无线资源分配
在分布式学习框架中,需通过无线网络传输大量训练中间数据,这一过程会产生显著的通信开销。考虑到每轮训练会涉及大量车辆,合理且高效地分配通信资源对加快车载边缘智能(VEI)的实现至关重要。研究人员可通过结合延迟、能耗、收敛时间和学习精度等变量,全面探索多目标优化,从而推动资源的合理分配。此外,设计资源分配激励机制也是促进资源合理分配的一种手段。制定激励方案时,不仅要考虑中央处理器(CPU)/图形处理器(GPU)频率、频谱和能量成本等因素,还可将传输干扰对其他车辆的影响纳入成本考量。基于博弈论、契约论和拍卖理论的各类方案,在车载网络中自适应拆分联邦学习(ASFL)的激励设计中也具有应用价值。
5.5 并行设计
在车载网络中,由于车辆具有移动性,服务器(如RSU)通信范围内的车辆数量会不断变化。设计优化算法和激励机制时,不仅要考虑最小化系统负载或最大化模型性能,还需确保系统的可扩展性。当大量车辆接入网络时,合理且高效的并行设计有助于避免系统延迟呈线性或指数级增长,保障系统具备较强的可扩展性。
更多推荐



所有评论(0)