源自:信息与控制
作者:柴浩轩 金曦 许驰 夏长清
"人工智能技术与咨询"发布
摘 要
随着计算机技术不断应用于工业物联网,工业系统中的数据传输愈加需要支持高实时、高可靠、高带宽以及海量连接的特性。传统的网络已经无法满足这些需求,5G网络因其高速率、低时延、支持海量连接以及良好的移动性等优越性能已成为当前工业物联网领域的研究热点。本文对面向工业网络的5G机器学习方法进行了综述,首先分析了5G网络通信技术领域的大规模天线、终端直连、移动边缘计算以及异构超密集组网等关键技术,其次介绍了人工智能技术以及作为其重要组成部分的机器学习技术,同时总结了将机器学习技术引入5G网络以解决具体问题的方法并对之进行了总结与展望,最后提出了5G通信技术的未来研究趋势。
关键词
工业物联网 / 5G / 人工智能 / 机器学习
引言
物联网(Internet of Things,IoT)是一种通过有线和无线网络连接物理对象的技术[1],其技术核心是部署数十亿甚至数万亿的智能物体,这些物体能够感知周围的物理世界,传输并处理所采集的感知数据,然后再作用于物理世界。物联网将物理世界有机地组织在一起,极大地促进了自动驾驶、智慧城市、智慧医疗等新兴产业的发展。工业物联网(industrial internet of things,IIoT)作为物联网的一个子集(如图 1),其内容涵盖了所有与工业相关的物联网理论、技术与应用。"中国制造2025"和工业4.0的核心都是IIoT与制造业的有机结合,因此工业物联网相关技术的发展对推动我国从制造大国向制造强国的转变具有重大意义。目前IIoT已被应用于多种工业系统,如石油和天然气系统、电网及汽车制造系统等。
图 1 物联网、信息物理系统、工业物联网以及工业4.0的关系[1]
根据IIoT内部功能进行划分,可归纳出IIoT的分层架构,如图 2所示,包括物理层、通信层和应用层三层[2]。物理层由收集和发送数据的传感器、制动器、制造设备及移动设备等组成,这些设备由应用层中的不同工业应用(智能工厂、智慧供应链等)通过通信层中不同的通信网络(WSAN、5G、M2M等)进行控制。
图 2 IIOT三层架构[2]
通信层是工业物联网的核心,起到承上启下的作用。在诸如远程控制、生产调度等系统中,如果延时较高,很多技术将无法实现,例如远程控制时,低时延的数据传输是操作成功完成的关键所在。不同工业生产场景对于网络实时性及时延的需求不尽相同。如表 1所示,在一般的控制过程中,诸如物料传送、过程自动化等不同连接要素的应用中,对于时延的要求存在较大差异。例如物料传送、过程自动化等场景需要人工的参与,对于时延的要求不是十分严格,而高速控制等无需人工参与的生产场景则对实时性的要求较高。信息监测场景中,由于设备状态以及环境信息等数据并不直接作用于生产系统中,因而监测系统的时延需求一般都在100 ms之上。而对于安全生产系统,诸如煤矿开采控制过程,要求数据在10 ms内完成传输,否则过高的时延可能会导致生产事故的发生。
表 1 不同工业场景对时延的需求
此外,工业数据的传输为网络提出了高可靠性的要求,因此传输网络不仅要支持毫秒级别的端到端时延,还必须保证接近100%的传输可靠性。例如现场设备与生产决策系统的连接中,保障可靠性只是该系统的最基本要求。对于现代的工业系统而言,所采用的工业物联网必须连通人、机、物生产全要素,这导致海量数据的高并发传输。例如大规模油田监管系统中,物理设备接入量已达百万级别。工业生产中还涉及有线网络与无线网络互联的问题,有线网络具有高带宽、高可靠性的优点,适合作为数据汇集传输的骨干网络,而无线网络可以摆脱线缆的束缚且组网方式更加灵活,适合作为广域、大规模的接入网。因此,为了支撑工业物联网,通信层的网络必须具备高实时、高可靠、海量连接及异构组网的特性。
5G通信技术与机器学习相结合是满足以上特性的重要技术路线之一。目前,5G在实时性、可靠性、高并发、高带宽、广覆盖等方面的技术指标优于其他无线网络,与优化效果极佳的机器学习方法相结合,可以有效提升工业系统中数据的传输性能。因此本文面向工业物联网,对5G中的机器学习方法进行综述。本文从工业物联网所需的数据传输特性出发,介绍了5G的关键技术与机器学习方法,进一步列举了各种5G技术与机器学习方法相结合解决的工业物联网传输问题,最后对相关技术的未来研究进行了展望。
1. 5G关键技术
5G与4G相比,速率提升了十倍,布网密度增加了百倍,延时缩短为1/10。这些优异的性质得益于5G采用的大量先进技术。本文选取对性能起决定性作用的5G特色技术介绍如下。
1.1 大规模天线技术
大规模多路输入多路输出(massive multi-input and multi-output,Massive MIMO)天线技术通过在基站侧安装大规模天线,实现大量天线同时收发数据,并利用空间复用技术,实现频谱效率的大规模提升。如图 3所示,MIMO通过设置多天线,可以同时发送和接收多个空间流,而无线信道容量则随着天线数量的增多而线性增大。
图 3 MIMO原理图
自4G技术大面积普及以来,MIMO已经被纳入了许多移动通信的标准。然而MIMO在应用中还存在着许多缺陷。例如,由于高传播损耗以及穿透损耗等因素的影响,4G中MIMO的可实现增益不足以减轻毫米波(mmWave)的危害,因此需采用Massive MIMO。Massive MIMO可以提供更快的数据速率和更高的功率增益来补偿毫米波的衰减,其原理图如图 4所示。文[3]对应用于5G通信系统中的大规模天线进行了数据速率、频谱效率以及容量等性能的分析。仿真实验结果表明,利用大规模天线技术可以有效补偿毫米波频率引起的信号衰减。此外,大规模天线技术可以与当前网络和接入技术无缝集成,同时提高无线通信系统的容量、可靠性及频谱效率。为解决未来5G异构网络(HetNet)的许多技术问题提供了重要手段。
图 4 大规模MIMO示例图
1.2 高频传输技术
随着无线通信技术的发展、数据流量的暴增及用户业务和应用的快速增长,移动通信系统的设备连接数、速率及带宽等都必须满足更高的要求。目前,低频传输资源日益短缺,因为5G网络通信技术需要更广阔的频率带宽来运行,这使得现有的无线通信频谱资源变得更加稀有。而6 GHz以上的高频段具有更加丰富的频谱资源且具有传播方向性强、安全性高、抗干扰好、频率复用性强等优势,但同时也有着传播损耗大以及波长较短等缺陷。如何解决高频段中的传输瓶颈,使其资源能够为无线通信所用,进而缓解当前频谱资源短缺的问题,已成为当下的研究热点。
1.3 终端直连技术
D2D通信(deviceto device,D2D)是指两个移动用户之间不经过基站(base station,BS)或核心网而进行的直接通信[4-5]。D2D通信最常见的用例如图 5所示,为了降低通信系统中核心网络的压力,通信系统中一旦建立D2D通信链路,数据传输与信息交换便只发生在邻近设备之间而无需网络中心设备的干预。因此,相较于传统的蜂窝网络通信中所有通信必须经过BS而言,D2D通信可以发生在蜂窝频谱(带内)或未经许可的频谱(带外)。传统的通信架构适合低数据速率移动业务,如语音通话和短信,然而在今天的蜂窝网络中,移动用户使用的是高数据速率服务(如视频共享、游戏等),在这些服务中,D2D通信技术可以大大提高网络的频谱效率。除此之外,在该技术支持下,当基站出现故障或者无线网络信号较差而无法覆盖全区域时,设备仍可以通过D2D技术进行通信,提高了无线网络的通信质量。然而5G采用D2D通信技术也将面临诸多挑战:1) 蜂窝网络与D2D的切换问题,即如何判断蜂窝网络和D2D通信的最佳运用场景并自主决策;2) D2D小区的干扰问题,如何避免干扰;3) 传统中继方案由于D2D同步信号(SSs)的碰撞而不适用以及中继选择等都是D2D需要解决的问题。
图 5 D2D通信的典型用例
1.4 异构超密集组网技术
5G正朝着更多元、更全面、更智能的方向发展。如图 6所示,超密集网络(ultra-dense network,UDN)技术可以同时提升频谱效率、网络容量、网络覆盖,进而增加系统容量。此外,面向5G的创新移动宽带网络架构,由不同大小、不同类型的小区构成,即异构网络(HetNet)。HetNet通过协调部署3G/4G中的无线基础设施,可以有效提供高数据吞吐量、良好的移动支持性及优质的用户体验,异构超密集组网技术可以在扩大无线网络覆盖范围的基础上,提高系统的吞吐量和通信质量,此项技术已经成为5G网络提高数据流量的关键技术之一。
图 6 UDN示意图
1.5 网络切片
5G网络的应用场景千变万化且不同场景对于指标的要求可谓天差地别,因此传统的统一格式网络已无法满足不同业务的需求。5G采用端到端的网络切片技术(network slice,NS)将网络分割成多个逻辑上相互独立的切片,以实现各个特定业务或场景下的最佳体验。网络切片实质上是一种虚拟专有网络,是在共享物理网络上提供特定网络的技术,其两个重要指标分别是虚拟网络间的共享与隔离[6]。如图 7所示,通过采用网络切片技术,5G单一网络被划分为多个网络切片,即mMTC(massive machine type of communication)切片、URLLC(ultra-reliable low-latency communications)切片及eMMB(Enhanced Mobile Broadband)切片。每个网络切片作为一个逻辑网络,可以根据具体的需求配置特定的网络功能,以提供各种异构特征的服务。这种方法将有助于解决不同用户群体的特定需求,其两个主要优点是向终端用户提供各种服务的切片以及共享基础架构,通过引入该技术,网络运营商将负责网络共享和资源管理,而不再考虑用户和设备的数量。
图 7 5G网络切片划分示意图
文[7]提出了一种支持网络切片的新型网络架构(如图 8所示),作者在传统网络架构的基础上增加了两个功能:切片管理器和切片选择功能。其中,切片管理器中包含3个小部分,网络切片主要负责在商务设计时输入参数,实例编排环节将网络切片实例化,运行管理环节对各网络进行检测并管控;而切片功能选择则会在用户提供选择信息之后进行对应功能的切换。同样,在5G网络中实现切片还面临着诸多技术难点,例如切片之间的隔离实现、管理与编配、安全与隐私以及性能优化等问题。
图 8 网络切片架构图
1.6 移动边缘计算
移动边缘计算(moving edge computing,MEC)与软件定义网络(software-defined networking,SDN)、网络功能虚拟化(network function virtualization,NFV)并称为5G的3个基本支柱[8]。随着工业物联网技术的发展,工业设备生成的数据量正呈指数级增长,这给云计算带来了新的考验。MEC因其低时延、低流量以及强隐私性等特点在满足5G垂直行业的多样化需求方面尤为重要[9],该技术通过将IT服务环境与云计算能力转移到靠近用户的移动网络边缘,以达到较少延迟、改善网络运营及服务交付的目的。MEC可以增加5G网络的灵活性,从某种意义上来说,边缘计算是5G的本质,这一点尤其体现在工业应用中。文[10]通过对12个具有代表性的垂直产业的5G MEC的本质特征、威胁、漏洞和攻击以及功能特性的分析,给出了5G MEC的效率模式并确定了在5G中应用MEC技术对最终网络质量的影响。MEC通过将服务器设置于用户附近,满足了对超低延迟通信等延迟敏感的服务的需求。"5G+移动边缘计算"应用场景将贯穿工业制造的全过程,覆盖生产过程控制、机器协作等各个环节,5G与移动边缘计算的融合应用将显著降低企业的运营成本,在提高生产效率的同时优化制造资源配置,进而提高产品高端化、装备高端化和生产智能化水平,为工业物联网的发展提供有力的保障。
2. 机器学习概述
人工智能的研究起始于20世纪50年代左右,随着计算机和信息技术的发展,早期的符号智能和基于知识的专家系统逐渐演变为今天的数据驱动计算智能和机器学习[11]。电子计算机的诞生为人工智能的研究提供了物质条件。1956年夏天,在达特摩斯大学的一次研讨会上,被称为"人工智能之父"的约翰·麦卡锡及其他著名学者共同提出正式采用"人工智能"一词,宣布了人工智能学科的正式诞生。此后,人工智能的研究进入了一个如火如荼的发展阶段,这段时间中,以机器学习为代表的人工智能方法取得了巨大的进步。到20世纪60年代末期,机器学习研究进入了一段低潮期。相关研究几乎都停下了脚步。随后机器学习经过一段时间的应用程序集成和发展,解决了人工智能在数学理论和计算的诸多难题。目前机器学习已经成为大数据、互联网、云边计算等领域的重要技术手段之一。
机器学习与多种先进技术的关系如图 9所示。机器学习作为人工智能的一个重要组成部分,其目的是训练机器(计算机)进行学习[12]。更具体地说,机器学习是通过挖掘输入数据中所包含的信息来训练以获得一个模型(函数),这也是机器学习与传统编程的不同之处(如图 10所示)。
图 9 机器学习与多种先进技术的关系
图 10 传统编程与机器学习的区别
机器学习可分为3类:监督学习(supervised learning,SL)、无监督学习(unsupervised learning,UL)和强化学习(reinforcement learning,RL)。
监督学习的目标是通过使用有标签的数据进行训练来学习从输入空间到输出空间的映射。图 11展示了监督学习的原理图,当输出数据是实数或者连续值时,该问题被称为回归问题,否则称之为分类问题。使用所获取的过去数据集进行训练后,模型将会学习到一个规则,该规则可以用于对未来数据的预测。因此监督学习也经常用于使用历史数据来预测未来事件的场景中。监督学习中,每个训练样本都必须和各自对应的标签一起输入模型。
图 11 监督学习原理图
无监督学习的目标则是通过利用无类别标签的输入样例中所包含的信息学习其对应的类标签,由学习到的类标签信息将输入的样例划分为不同的簇[13],无监督学习中典型的算法诸如聚类和降维都是先让计算机与大量变化的无标签数据接触,并从这些数据中进行学习同时发现数据中的隐藏规律。无监督常用的技术包括K均值聚类、自组织映射(SOM)、自编码器等。在现实生活中,带有标签的数据获取十分困难,对于无标签数据的标注也会耗费大量物力财力,因此半监督学习便展现出了其优越性,该方法只需少量的带标签数据和大量的无标签数据便可进行模型的训练。如图 12所示为半监督学习的原理图,半监督学习中有3个常用的基本假设,即聚类假设、流形假设和局部与全局一致性假设[14]。
图 12 半监督学习原理图[12]
强化学习作为机器学习的一个重要分支,强调如何在给定的环境下学习最佳的行动序列,以最大化累积奖励。如图 13所示,强化学习的关键思想是利用Agent来寻求一种最优操作,Agent通过动作与环境进行交互,获得系统状态和奖励的反馈。"正奖励"与"负奖励"统称为奖励;即:当行为正确时,回馈正奖励;行为错误时,回馈负奖励。
图 13 强化学习原理图
3. 5G机器学习方法
在5G工业网络系统中,往往会涉及智能基站决策、资源调度等问题。通过引入机器学习技术,5G设备可根据学习数据而非预先建立的固定规则来设计自适应传输方法,在提升效率和可靠性的同时,减小延时,为5G系统的设计与优化提供了新的解决方案。
本文列举了不同种类机器学习方法解决的5G问题,如图 14所示。
图 14 机器学习方法分类及解决的问题
3.1 监督学习在5G中的应用
监督学习的典型应用如表 2所示,具体内容如下。
表 2 监督学习算法及其解决的问题
3.1.1 线性回归
如图 15所示,线性回归(linear regression)是机器学习中一种简单的分类方法。其本质其实是一种回归分析,即找到一个从输入空间X到输出空间Y的最优映射线性函数。而逻辑回归(logistics regression)则是一种广义线性回归。可以用以上两种算法来解决常见的二分类问题,并且算法用最终属于某类别的概率来表示分类结果。例如属于类别A的概率为70%,属于类别B的概率为30%,则将其分为A类。
图 15 线性回归
5G无线网络中,可以从无线电频谱的无线电波中来获取能量,为了确保能量的性能可靠,文[15]基于线性回归算法提出了一种能量预测模型,通过实时测量无线电频谱中的功率来对收取的能量建模。数值结果表明,线性回归的预测精度至少可达85%,具有较好的性能。
3.1.2 支持向量机
支持向量机(support vector machine,SVM)是一种二分类方法,如图 16所示,其基本思想是在特征空间中寻求间隔最大的分离超平面使得数据可以得到高效的二分类。主要通过将分割问题转化为凸二次规划问题进行求解,其核心是将所研究的线性不可分数据转换至一个更高维的空间,该空间中数据是线性可分的。
图 16 支持向量机
在5G信号传输的路径损耗问题中,文[16]提出了一种使用支持向量回归(SVM-R)预测城市户外环境中路径损耗的方法。仿真结果表明,与多层感知器神经网络相比,基于核函数及其参数的支持向量回归算法性能并不劣于传统算法,且计算复杂度较低。文[17]为了解决大规模MIMO系统的信道估计问题,提出了一种基于支持向量机的多元回归算法(M-SVR)。该算法利用了MIMO的空间分集特性,能够发现发射与接收信号之间的关系,有效地解决了工业物联网中信道难以估计的问题。此外,文[18]提出了一种基于支持向量回归的接收功率信号估计方法来解决新型铁路对于5G时代下高质量通信需求的问题,并将500 m~1 000 m之间的发射器与接收器的位置距离通过主成分分析(PCA)处理作为输入,用SVM方法进行了进一步的处理,通过RMSE的值来表征模型的误差,在3次交叉验证中的最佳准确率为93%。
3.1.3 神经网络
如图 17所示,神经网络(neural network,NN)是一种根据具有思考决策行为的生物大脑结构和信息处理系统,该系统通过输入节点与输出节点间的大量连接来模拟大脑。深度神经网络(deep neural network,DNN)则可以看作是增加了隐藏层数量的神经网络,又被称为多层感知机。
图 17 神经网络
神经网络算法已被广泛应用于5G网络的部署中,5G无线通信网络主要依赖于信道状态信息(CSI)来做具体决策,然而传统的CSI获取方法不仅会消耗大量信道资源,而且信道估计位置信息通常并不准确。文[19]提出了一种基于神经网络的监督学习算法,该算法将神经网络中的标准方法与针对单元格选择问题的特殊处理过程相结合。最后利用基于几何的随机信道模型(GSCM)对算法进行了评估。结果表明,该算法的准确率可达73%,远高于K近邻算法。针对大规模MIMO中信道反馈问题,文[20]提出了一种基于监督深度学习的编解码器方案以提高接收信息的质量并恢复信道状态信息。该方案将注意力机制和残差网络结合到深度学习之中,大幅提升了算法效率。
5G中存在许多通过优化来最小化或最大化某些目标函数的问题,然而其中大多数问题是非线性的。因此人工神经网络便是解决这种非线性问题的有效方法。例如,通信技术中的非正交多址(NOMA)与正交多址(OMA)技术,从吞吐性能角度看,NOMA更高效,更适合5G系统。然而现有的NOMA技术只提供严格的用户分组,并没有探索集群用户的信道异构性与多样性,导致吞吐性能较差。文[21]针对不同数量的用户,提出了一种有效的基于人工神经网络的自适应用户集群聚类NOMA系统,该系统使用ANN对NOMA用户的信道增益及发射功率生成的训练集进行训练,通过不断实验调整超参数的值,最终生成一个可以自动决策将用户分组的模型,同时使吞吐量最大化。仿真结果表明,该模型能够明显降低复杂度,吞吐性能也高达98%。
5G网络需要处理工业物联网中日益复杂的服务,这些服务的性能要求和所使用的通信技术存在差异性。网络切片作为一种处理5G复杂管控的技术,在未来的网络按需定制中将起到十分重要的作用。文[22]提出了一种深度学习算法来预测服务提供商是否能够在给定信道条件和资源分配的情况下满足一个新的网络切片请求。该算法考虑了传输数据的顺序,设计并实现了一种用于预测近期信道状况的长短时记忆网络。实验结果表明,该算法减少了75%的误报。
3.1.4 决策树算法
决策树(decision tree,DT)是一种常用的基于多特征建立分类系统的机器学习方法。如图 18所示,该模型的结果以树状显示,便于理解与高度解释,同时还具有变量选择和缺失值填充机制,可以用于处理分类和回归问题。随着5G网络的不断普及,IPv6流量的快速增长使得安全问题变得更加重要。文[23]提出了一种基于特征的入侵检测系统和决策树算法,用以确保SDN/NFV环境下的IPv6网络安全。仿真结果表明,基于决策树的分类算法在该安全系统中的分类准确率可达99.3%,可以很好地用于基于IPv6的工业物联网的系统安全检测。
图 18 决策树算法
3.1.5 其他监督学习算法的应用
文[24]将机器学习应用于软件定义网络(SDN)中,提出了一种基于集成学习的预处理工具。由于使用其它分类器无法在数据集上得到最佳的分类结果,因此该工具将各分类器进行结合并改进。该系统结合了多分类器的优点,具有两层的分类工作流,SDN的入口网络流量经过该预处理工具,实现分类,可进一步选择正确的流量策略集。实验结果表明,该集成分类器不仅实现了整体的高精度分类,而且提高了对单个业务类型的分类准确度。文[25]提出了一种用于支持SDN的混合光网络的监督学习机制。该机制的体系结构包括回程网络中的一个千兆位的无线光网络(XG-PON)和前传中多个长期演进(LTE)无线接入网络。最后将该机制用于真实环境中使用真实流量(包括IP语音、流视频等)进行跟踪评估,最终结果表明该机制能够根据混合网络的流量,动态确定最佳位置,同时在抖动与延迟方面都有显著的改进。
作为5G技术三大关键业务之一,超可靠低延迟通信(Ultra-Reliable and Low-Latency Communication,URLLC)可以保证较小数据包的快速交付[26],但现有的蜂窝网络无法满足URLLC可靠性和低延迟的要求。文[27]研究了一种监督学习算法用以满足URLLC应用程序的链路延迟要求,特别是减少与混合自动重传请求(HARQ)反馈方案的延迟,该方案在解码处理之前,对编码接收信号的解码状态提供早期HARQ(E-HARQ)反馈,这使得发射机反应更快且信号往返时间(RTT)最小化。仿真结果表明,该机制的反馈速度相较于传统机制明显加快,且预测精度提高了12%。
网络切片是通过并行计算减少计算时间并提高服务质量的有效方法。然而,在确保成功率的基础上很难确定请求应该部署于哪个网络切片之上。为此,文[28]提出了一种基于监督学习算法的切片模型,通过在不同分区之间的调度来快速确定应在哪个网络切片上部署请求,通过减少计算来加速路由,有效地提高传输的成功率。
监督学习主要应用于数据标签易于获取的领域且主要用于预测问题。在计算资源足够的前提下,监督学习可以得到较高的预测准确性,与此同时监督学习方法还具有适用性强、可解释性强以及可迁移性好等优势。然而监督学习方法对于数据的依赖性过强,如果数据集质量不好或数据集不足,算法的效果可能会受到很大的影响。而且监督学习方法可能会出现模型过拟合或欠拟合的问题且对异常值敏感,这对于诸如CSI决策等问题是不友好的。此外监督学习算法需要大量的训练时间,因此不适用于实时预测问题。
3.2 无监督学习在5G中的应用
无监督学习的典型应用如表 3所示,具体内容如下。
表 3 无监督学习算法及其解决的问题
3.2.1 高斯混合模型
高斯混合模型(Gaussian mixture model,GMM)是多个高斯分布函数的线性组合,通常适用于一个集合中包含多种分布数据的情况。在高斯混合模型中,每个高斯分布被称为一个组件,而组件的数量通常是固定的。
随着5G无线技术的不断普及,频谱资源已经越来越稀少,然而传统的静态频谱分配策略并没有做到频谱资源的充分利用,造成了频谱资源的严重浪费。文[29]基于K均值聚类和GMM提出了一种协同感知算法,该算法使得输入分类器的特征比传统的能量向量更具鲁棒性。仿真结果表明,该算法优于传统基于能量向量的无监督学习算法[30]。
3.2.2 基于密度的聚类
图 19所示是基于密度聚类的二分类结果,基于密度的聚类是一种基于数据密度而构建的聚类算法,与其他聚类方法不同之处在于DBSCAN(density-based spatial clustering of applications with noise)将分布密度最大的点集定义为一类,同时还可以在带有噪声的数据中进行聚类。因此DBSCAN适用于带噪数据集的聚类。
图 19 基于密度的聚类
文[31]提出了两种无监督学习(基于密度的空间聚类DBSCAN与1维K均值聚类)的简化应用,用于5G-RAN(无线接入网)中的边缘节点(如无线接入网智能控制器RIC)上实现实时性能自诊断。两种应用分别是使用异常检测进行故障原因分析以及使用1维K均值聚类来分析两个性能关系。实验结果证明,两个无监督学习模型都可以较好完成诊断与分析任务。
3.2.3 层次聚类
层次聚类(hierarchical clustering)方法通过计算不同类别数据点之间的相似度,构建一棵有层次的嵌套聚类树。在聚类树中,原始数据点位于树的最低层,而顶层则是聚类的根节点。创建聚类树的方法包括自下而上的合并和自上而下的分裂。图 20展示了典型的凝聚层次聚类方法AGNES(AGglomer-ativeNEStling)以及分裂层次聚类方法在包含5个对象的数据集合的聚类过程。
图 20 数据对象{a,b,c,d,e} 的凝聚和分裂层次聚类
5G无线网络是以完全自动化的方式运行的,但是需要对其运行状态进行监测。为了监测无线网络中的异常行为,文[32]使用了K均值聚类和层次聚类两种无监督聚类方法。该算法从呼叫详细记录(CDR)中包含的时空信息分析了不同时间和位置的用户活动,将流量需求十分高的用户归类为异常,有助于识别网络中的高突发流量区域。该方法可以用于监测工业物联网中5G用户的状态信息,通过分析其移动模式、流量模式等信息,开发智能资源分配模型,进而实现资源的高效利用。
3.2.4 K均值聚类
图 21展示了K均值聚类(K-means clustering)的三分类结果。K均值聚类是数据挖掘领域最常用的聚类算法,该算法由分析者来指定需要的类别数量,并根据每个数据点距离随机初始化的类中心的距离来划分不同的类别,是一种硬聚类算法。但是K均值算法使用范围十分有限,因为该算法使用之前需要已知数据集的聚类数量且仅适用于连续型变量的场景。
图 21 K均值聚类
低延迟数据访问是5G网络面对的一大重要挑战。数据块的正确放置可以有效减少分布式存储系统之间数据传输产生的延迟。由于网络条件、用户请求模式等影响数据放置性能的因素具有不确定性,文[33]提出了一种基于K均值聚类的方案以帮助确定数据存储。实验结果表明,该方案可以将平均读写延迟降低45%。进一步,可以将不同类型的机器学习技术应用于解决该问题的方案之中。同样,文[34]将K均值聚类应用于中继选择策略之中,获得了高效的广播策略,极大的节约了并行计算中的时间成本。文[35]提出了一个两层框架来优化网络切换流程,首先在异构的用户移动模式中引入K均值聚类来对不同的移动模式进行划分,然后在每个划分后的集群中采用异步学习方案,在降低了切换速率的同时确保了工业物联网系统的吞吐量。
3.2.5 自组织映射
自组织映射(self-organizing map,SOM)是一种利用无监督学习生成训练样本并将输入空间离散为低维表示的人工神经网络。如图 22所示,该网络由两层神经元构成,输入层与竞争层,输入层的神经元数量由输入空间决定,竞争层的神经元数量由用户自定义。与其他人工神经网络不同的是,它使用了一个保持输入控制拓扑性质的邻近函数。其基本思想是,网络输出层的神经元相互竞争,以获得对输入层做出响应的机会,最终只有一个神经元获胜。获胜的神经元会影响邻近的神经元,逐渐从兴奋转变为抑制,与获胜神经元相关的连接权重也会改变。
图 22 自组织映射
移动网络基础设施的致密化已经广泛应用于提高系统容量及改善用户体验,然而由于同信道及信道间干扰、能效等问题使得如何有效利用大容量面临着挑战。文[36]提出了一种基于无监督自组织映射优化异构网络的解决方案,改善了传统解决方案对终端流量需求模式过于敏感的缺陷。该算法在采用了两种反映行人和车辆用户设备特征的移动模式的基础上,同时考虑了小区间存在的同信道干扰问题,并在负载较大的区域部署了微小区,最大化了平均吞吐量及覆盖概率等关键性能指标。仿真结果表明,所提出的无监督SOM算法在平均吞吐量以及公平性方面都比传统算法高出30%,并且用户设备可感知的信噪比可达6 dB。
3.2.6 无监督软聚类
无监督软聚类(unsupervised soft-clustering)是深度学习中一种建模框架,与K均值之类的硬聚类不同之处在于软聚类只能够聚类成指定数量的类,但却不能够说明每一个类到底代表着什么。
雾(fog)节点是一些专门用于云到物连续体的节点,起到控制终端设备且为其提供服务的作用。HetNet中一些低功率节点升级为光纤陀螺节点可以极大地提高HetNet的性能,使用雾节点不仅可以减轻低功率节点(LPN)之间的干扰,还可以依赖其存储能力向终端设备提供服务。文[37]将一个光纤陀螺网络融入了由一个高功率节点(HPN)和多个LPN组成的HetNet中,通过修改无监督学习软聚类算法来确定LPN升级的fog节点的位置,以达到降低延迟的效果。实验结果表明,延迟随着带宽的增加而减小,直到达到某一饱和点。文[38]提出了一种新的频谱分析方法,用于频谱共享环境中的信道检测。该方法基于迭代多阶段多分辨率扫描,使用可配置滑动离散傅里叶变换(SDFT),最终利用无监督学习软聚类方法实现。在LTE和5G信道的多个RAN的仿真实验表明,该方法可以成功运用于频谱共享管理和其他需要信道占用率精确检测的场景,同时该方法具有复杂度低、精度高的优点。
3.2.7 自动编码器
如图 23所示,自动编码器(autoencoders,AE)是一种无监督机器学习算法,它是一种特殊的神经网络,通过将输入特征压缩到另一个空间表示中,然后根据这个表示重构输出。该算法使用反向传播使得网络输出值等于输入值。而对抗自编码(adversarial autoencoders,AAE)是一种可以将自动编码器转换为生成模型的通用方法,自编码器主要应用于数据去噪及可视化降维等方向。
图 23 简单的自动编码器模型
文[39]将通信视为一项端到端的重建优化任务,使用自动编码器在没有任何先验知识的情况下联合学习发射机和接收机的实现及信号编码。与各种传统基线的性能相比,所构建模型不仅在可靠性与延迟方面有所改善还可以在未知情况下提供最优通信方案。文[40]将自编码器引入5G网络无线频谱检测任务中,提出了一种基于AAE的异常检测方案。该方案综合考虑了传统监测方案,以及诸如文[42]中基于原始同相和正交相位数据预测建模的递归异常检测器不够智能化的问题,文[43]中基于深度学习自编码器重建异常监测器的缺乏可解释性等问题,利用功率谱密度数据进行无线频谱异常监测,在无监督环境下实现了良好的异常检测和定位功能。
3.2.8 亲和力传播聚类
亲和力传播聚类(affinity propagation clustering)是一种基于数据点之间亲和力传播的聚类算法。该算法通过计算每个数据点之间的相似度和"亲和度"来确定数据点的聚类。具体地,算法将每个数据点看作网络中的一个节点,数据点之间的相似度则视为节点之间的边。通过不断迭代,算法会自动计算每个数据点的"聚类中心",以及各个数据点属于不同"聚类中心"的概率。亲和力传播聚类算法的优点在于,不需要预先指定聚类中心的数量,且对于数据集中的噪声和异常点有较好的鲁棒性。但其缺点在于,需要计算全局的亲和度矩阵,因此在大规模数据集上的计算效率较低。
超密集小区(UDSC)部署可以提高系统容量和服务覆盖率。文[41]提出了一种数据驱动的资源管理(DDRM)框架以实现UDSC中的功率控制与信道重排,构建了一种称为亲和传播功率控制(APPC)的无监督学习算法,该算法可以在DDRM框架显著提高UDSC能效和吞吐量的基础上,对用户集群进行聚类识别用户簇中心的同时降低集群中心的传输功率,以降低相邻小区用户之间的干扰。
3.2.9 其他无监督学习算法的应用
文[44]提出了一种将生成性深度神经网络(GDNN)作为新一代认知网络和系统的关键模块。GDNN可以提取更丰富的上下文表示能力,同时还可以将不同类型的机器学习算法进行结合,实现特定的任务目标,并且还可以与软件定义网络和网络功能虚拟化范式相结合,以实现复杂通信系统的灵活驱动与管理。除了可以在通信领域优化网络之外,该方法还可以运用于认知科学领域的创新性发展。
毫米波段中的阻塞漏洞很容易出现覆盖漏洞问题(Chs),进而导致无线电链路故障。文[45]使用了热门的流形学习方法,以无监督的方法识别Chs,解决了传统基于测试-投诉-警报组合检测模式耗时、成本高且可靠性低的问题。其关键思想是保持所收集的未标记信道样本中固有的局部连通性结构,保持了所采集样本中Chs的可检测性。然后利用数据驱动无监督学习算法统一流形近似与投影[46](UMAP)。以无监督学习的方式检测CHs,通过从基站可用的高维信息状态信息生成低维嵌入。无监督学习依靠其可以自动从数据中发现隐藏的模式与结构的优势,主要应用于性能诊断、信道检测及资源分配等问题中。除此之外,无监督学习能够处理大量的未标记数据,便可以对工业5G现场采集的数据进行特征挖掘与分析,进一步解决相关问题。然而无监督学习方法由于缺少明确的目标函数,训练过程可能不稳定,而且通常需要更多的计算资源和时间来训练模型。此外无监督学习方法无法直接评估模型的性能,难以确定模型的质量。因此对于大多数问题来说,无监督学习的效果可能差于有监督学习。
3.3 强化学习在5G中的应用
强化学习的典型应用如表 4所示,具体内容如下。
表 4 强化学习算法及其解决的问题
3.3.1 马尔可夫决策算法
马尔可夫决策过程(Markov decision process,MDP)是一种将马尔可夫过程与确定性动态规划相结合的算法,该算法通过一个决策周期或连续观察一个具有马尔可夫性质的随机动态过程,依次做出决策[59]。图 24展示了MDP的示例,其要素主要包含:状态、动作、针对每一状态的奖励及状态转移概率。简单来说,MDP是一个描述智能体在不同状态下执行动作获得奖励的模型,通过价值函数来衡量状态或状态-动作对的价值,通过策略迭代或价值迭代求解最优决策策略。而半马尔可夫决策过程(SMDPs)作为马尔可夫决策过程的扩展,用于对随机控制问题进行建模,不同于马尔可夫决策过程,半马尔可夫决策过程的每个状态都具有一定的逗留时间,并且逗留时间是一个通用的连续随机变量。
图 24 马尔可夫决策过程示例图
5G无线网络通常运行于不确定的随机环境之中,在这种随机环境中,可以使用MDP对系统进行建模,从而优化预期目标。文[47]在一种没有环境先验知识和噪声观测状态的情况下,提出了一种通用的用户网络随机模型。该模型的状态按照马尔可夫过程演进,能够对主要用户的网络协议进行建模并且捕获所有用户之间的复杂交互关系,相对于之前的工作提高了效率。文[48]将5G异构无线接入网络中的垂直切换问题描述为一个马尔可夫决策过程,最大化了每个连接的期望回报。当执行网络切换时,用于对网络上信令开销所产生的处理负载进行建模,最后采用数值迭代算法计算稳定的确定性策略。由于文中使用的是离散时间模型,因此进一步将该模型运用于连续时间模型中将更有意义。此外,强化学习的其他算法也可被引入来搭建真实模型。文[49]利用半马尔可夫决策过程框架,为两个无线接入技术共享的异构小区提供了最优的联合无线电资源管理方案,并考虑了小区内移动基站的空间分布。实验结果表明,该算法在吞吐量和阻塞概率方面获得了更优的整体性能。
3.3.2 Q学习算法
Q学习算法是一种强化学习算法,用于学习一个在给定环境下,根据当前状态和所有可能的行动得到的最大收益值(Q值)的表格。该算法通过迭代地更新该表格,逐步学习出一个在给定环境下的最优行动策略。
文[50]为了在保证蜂窝用户QoS的基础上,最大限度地提高D2D用户的数据速率,提出了一种基于Q学习的算法,该算法通过关联用户之间的操作扩展了解决方案空间。仿真结果表明,该方法具有较好的公平性指标、较低的故障率和较好的吞吐量。随着5G多媒体边缘计算对于无线业务需求的不断增长,统计服务质量(QoS)发放已经被证明能够有效地保证多媒体数据在时变无线信道上的稳定传输。文[51]提出了一种基于Q学习算法的协作式D2D卸载方案框架,该框架通过与网络环境反复交互,可以满足统计延迟限制的QoS约束。仿真实验表明,在5G多媒体边缘计算无线网络中,在有统计延迟的QoS约束下,该卸载方案性能优于其他现有方案。
在5G自组织网络(SON)中,为了确定无拥塞的最短路径,并同时达到目标吞吐量,文[52]提出了一种基于Q学习的用户特定最优容量最短路径路由方法,该方法使用机器学习技术来帮助网络提供商找到最有效的路径并优化网络资源配置。实验结果表明,该方法可以为工业物联网快速确定具有最优容量的最短路径。
3.3.3 多臂老虎机算法
多臂老虎机(multi-armed bandit)算法是一种强化学习算法,也被称为k臂老虎机,类似于传统的老虎机,但是有多个拉杆,拉杆拉动时,每个操纵杆都会从与该特定操纵杆相关的分配中获得奖励。起初,赌徒对拉杆的具体奖励并不清楚,但经过多次试验,他就会只专注于奖励最高的拉杆。多臂老虎机算法是一种基于贪心策略的算法。在每次选择时,它会根据之前的经验对每个臂或拉杆的奖励进行估计,并选择其中被估计为最优的臂或拉杆。同时,它也会以一定的概率进行探索,即随机选择一个臂或拉杆进行尝试,以便更新每个臂或拉杆的奖励估计值。
由于该算法基于贪心策略,因此常用于一些最优化问题中,诸如在5G网络中,HetNet必须为用户提供可满足吞吐量的带宽,然而HetNet中的不同基站的覆盖范围不同,因此用户设备的切换性能也存在波动。为了解决这一问题,文[53]提出了一种基于多臂老虎机算法的方案,以系统性能最大化为目标,结合了强化学习技术和小区间协调来改善用户设备的切换和吞吐量性能。实验结果表明,该方法不仅在吞吐量方面优于传统算法,而且具有更优的公平性。性能表现上,该方案的用户设备吞吐量平均提高了80%,而切换失败概率则降低为原来的1/3。文[54]对多臂老虎机算法进行了改进,提出了一种称为循环多臂老虎机的算法,并将该算法应用于资源共享管理方案中的干扰管理。该算法可引导每个单元选择最合适的频带部分,通过每个单元自行选择资源,大大降低了操作成本。文[56]则是将多臂老虎机模型引入在线用户接入方案中以应对频繁网络切换造成的额外性能损失。通过对多臂老虎机模型的分析,提出了一种基于操作杆淘汰机制的改进算法。
3.3.4 参与者-评价者算法
如图 25所示,参与者-评价者(Actor-Critic)算法中,Actor、Critic均为神经网络,但具体作用不同,Actor用于预测行为的概率,Critic是预测在这个状态下的价值。Actor-Critic算法是一种融合了策略(policy-based)学习和值函数(value-based)学习的强化学习算法,它既能够有效地处理高维状态空间和动作空间,又能够实现稳定、快速的学习。在Actor-Critic算法中,Actor负责决策和执行动作,而Critic则评估Actor的决策和执行效果,并指导Actor进行优化。具体来说,Actor会学习到一个策略(Policy)函数,该函数定义了在当前状态下采取各个动作的概率分布,而Critic则会学习到一个价值(value)函数,该函数评估了当前状态的价值。
图 25 参与者-评价者算法
文[56]利用无监督强化学习框架建立了面向能效的用户调度和资源分配规则。由于信道环境、可再生能源状态和传输功率是连续变量,因此引入了Actor-Critic算法来学习最优随机策略。该算法中,Actor部分提供参数化策略并使用常规策略梯度方法更新参数,而Critic部分使用兼容函数来近似评估值函数,并且帮助Actor部分估计梯度。仿真结果表明,在获得更多可再生能源的基础上,该算法有效地提高了网络的性能。
3.3.5 深度强化学习
深度强化学习(deep reinforcement learning,DeepRL)是指利用深度神经网络的特征表示能力来对强化学习的状态、动作以及价值等函数进行拟合,进而达到提升强化学习方法学习模型性能的目的,图 26展示了该算法的基本流程。文[57]提出了一种深度强化学习方法,用于在系统演化过程中通过学习来管理MEC场景中的数据迁移。在将算法运用于实际场景中的实验结果表明,该算法可以很好地应用于MEC服务器的管理任务之中。蜂窝式网络的主要通信流量是机型通信(MTC),当大量机型通信设备请求接入网络时,会造成网络过载,传统的诸如先到先服务等算法并不能完全解决多资源的调度问题。文[58]针对M2M通信中的资源管理问题,提出了一种深度强化学习算法,该算法将具有多个需求资源的打包任务转化为深度强化学习问题,通过优化的深度神经网络进行学习。与强化学习算法相比,该算法具有更好的收敛速度,因此更适用于M2M通信场景,能够有效保证数据的流动性与调度效率。
图 26 深度强化学习
3.3.6 其他强化学习算法的应用
将上述提及的算法进行结合的算法也可以有效地解决5G网络系统中的技术问题。例如,文[60]提出了一种在5G蜂窝网络中使用强化学习进行切换优化的新方法。该方法使用集中式强化学习代理来控制基站之间的切换,将切换机制视为一个多臂老虎机问题,并使用Q学习方法解决它,最后使用不同的传播和部署环境分析了该方法的性能,并将实验结果与当前用于解决切换机制问题的算法(基于接入波束RSRP(reference signal received power)的3GPP(3rd Generation Partnership Project)切换算法与基于CMAB(contextual multi-arm bandit)的切换算法)进行了对比,实验结果证明所提出的算法具有更优的性能,在实际传输环境中,链路波束性能增益约为0.3 dB~0.7 dB。
在5G固定物理网络进行隔离的逻辑或虚拟网络架构中,网络的每个切片都能根据用户的个性化需求提供特定的功能。随着RAN数量的激增以及移动网络对于高效率的需求加大,这样一个灵活的虚拟网络架构,对于5G而言至关重要。文[61]提出了一种基于策略梯度的无模型强化学习方法,利用当前值和动作变量实现NS的最优策略并保证NS的安全性改进以及恶意节点检测的最优解决方案。但是该方案存在一些不足,例如收敛过程不足、权值方差较大、学习进度缓慢等。因此进一步的研究中不仅可以将模仿或分层学习与RL相结合,逐步提高RL的学习速度,进而快速优化网络,同时保证网络安全。亦可以采用基于策略梯度的Actor-Critic强化学习算法实现网络优化的最优策略。
多接入边缘计算为用户提供网络接入、数据存储、通信、任务卸载等基础服务,从而实现对复杂数据计算任务的快速稳定响应[62]。文[63]设计了一种基于5G的车辆感知多接入边缘计算网络(VAMECN),并针对系统总成本最小化的联合优化目标,提出了一种基于深度强化学习的联合计算卸载与任务迁移优化算法(JCOTM),该算法考虑了多个计算任务并发性、系统计算资源分布、网络通信带宽等多种因素的影响,同时基于非正交多址接入技术,保证通信的速率及质量,降低时延。实验结果表明,该算法能有效降低任务处理延迟和设备能耗,极大的优化计算卸载和资源分配,同时提高系统资源利用率。
强化学习方法具有适用范围广、可以自我学习、可处理复杂问题、自适应等优势,广泛应用于5G异构网络切换、D2D等问题中。然而强化学习方法需要大量的计算资源与时间且模型比较不稳定,很难保证每次都得到相同或者相近的结果,因此需要较长的学习时间。此外模型的可解释性较差,即模型较难解释,难以理解学习到的知识和决策过程。
3.4 半监督学习在5G中的应用
现实生活中,无标签数据的获取相较于有标签数据获取更为容易,并且对无标签数据进行标注会消耗大量时间和人力。因此利用少量带标签数据和大量无标签数据进行学习的半监督学习便显现出了其优越性。半监督学习因其可以使用大量的未标记数据,模型的泛化能力和性能被有效提高。相对于有监督学习,减少了标记数据的需求,降低了数据标注的成本,此外还可以解决类别不平衡等问题。
内容分发网络(content delivery network,CDN)作为重要的互联网基础设施同时也是5G的关键技术之一,现已被广泛部署,因此从网络流量中检测CDN托管(CDN-hosted)节点对于QoS、恶意软件检测和防火墙规则集便显得尤为重要。然而传统方法受到加密导致的明文不可见及DNS资源记录的限制。为了克服这些缺点,文[64]提出了一种基于图的半监督分类检测CDN承载节点的新方法CDNFinder。在构建图并提取新属性的基础上,通过修改图神经网络(GNN),该方法的性能明显优于经典的机器学习算法同时将传统的GNN算法的运行时间缩短了约31%。
然而半监督学习由于使用了未标记数据,可能引入更多的噪声,使得模型性能下降。此外还可能出现标记数据和未标记数据之间的差异,导致模型泛化性能不佳。总之,半监督学习可以在一定程度上解决标记数据不足的问题,但也需要权衡利弊来选择是否使用未标记数据。
4. 未来研究展望
4.1 海量连接问题
在科技日新月异的今天,5G技术必将成为万物互联互通的重要手段,5G网络正快速发展成为工业物联网应用增长的主要驱动力,未来工业物联网的新应用和商业模式都需要海量连接作为基础,因此海量连接是未来5G必须支持重要技术之一,但同时也面临诸多问题。首先,如何在支持海量设备连接的同时保证网络的性能稳定是5G待解决的关键性问题。其次,如何管理大量物联网设备的状态信息,以及信息的分布、一致性等与网络性能的相互影响仍需进一步研究。解决海量连接问题的思路之一是将整体系统划分为多个小区域,通过区域内自治及区域间协调实现海量的管理与优化。小区域内自治的方法与现有连接方法相同,但区域间的协调难以用确定的数学模型描述且动态性强,而机器学习方法对非确定问题的求解与预测能力有望解决区域间协调问题。
4.2 高效能问题
4G向5G技术的转换势必会带来能效问题。首先,5G基础设施的成本将会大幅提升。据统计,每个5G基站成本大约为20万人民币,是4G基站建设成本的4倍。此外,电力资源消耗也会增加,据运营商统计,5G基站最大功耗约为4G的3~4倍。在基础设施成本上升的同时,5G会带来用户流量数千倍的增长,但与此形成鲜明对照的是,运营商的收入依旧以低速增长。因此提高5G能效势在必行。一方面机器学习能更精准的预测用户行为,有助于5G基础设施的合理规划建设;另一方面机器学习能够在不稳定的频谱环境、波动的用户需求下求解问题,有望为工业系统寻求更高能效、低损耗的系统性解决方案。
4.3 场景融合问题
5G需要支持的场景以及业务繁多,且不同场景的需求各不相同,因此在具体技术设计时会产生许多冲突。例如,既要提供海量设备稳定连接又要满足高速移动的场景。这种新型场景的系统机理尚不清晰,难以建立具体的系统模型,因此需充分利用机器学习求解此类问题的优势,在新型场景推广之初,深入解决系统性问题。
4.4 信息安全问题
5G作为新一代蜂窝网络,集成了诸多技术以增强网络性能,当前工业物联网中的数据呈现出更加庞大且复杂的特性,未来基于5G的应用中,不仅5G的各级设备需要更为安全的保证,基于5G布设的上层应用与人的生活息息相关,也需要更为安全的运行机制。因此,设计人员不仅需要考虑本地的信息安全问题,还需要考虑上层服务、以及远程交互的信息安全问题。机器学习技术能够迅速在特性各异且不断变化的环境中学习,对信息安全问题进行检测和预防,已成为信息安全领域的研究热点。例如文[65]提出了一种结合超参数优化算法和堆叠长短时记忆(LSTM)网络的工控系统入侵检测模型,解决了传统模型检测精度低的难题。针对基于5G网络的系统级应用,机器学习在信息安全领域多角度、多层级的性能优势必将发挥重要的作用。
4.5 6G的发展
随着5G标准的完成,学术界已经开始考虑进一步将通信技术扩展至下一代蜂窝网络6G,而网络性能与机器学习的集成是5G向6G转变的里程碑。6G系统中将有望实现1 Tb/s的高数据速率以及100 GHz~3 THz的超宽频带。许多从业人员将机器学习视为6G中最重要的功能,然而,将机器学习技术运用于智能网络的建设还面临着诸多挑战。
文[66]从通信、网络和计算的角度列举了基于6G的机器学习十大挑战(如图 27所示)。未来6G将解决更为复杂的传输问题,其技术走向部分依赖于机器学习的发展。
图 27 基于6G的机器学习十大挑战[66]
5. 总结
工业物联网中的数据传输是工业生产中数据监测及传输的关键基础,但还是存在着传输效率低、安全性较差等问题。机器学习技术的引入为5G在工业物联网中的部署带来了新的解决方案。本文对近年来的相关文献进行了综述,总结了机器学习对5G技术的促进作用,展望了未来工业物联网对5G技术的需求和机器学习应解决的问题,为相关人员提供参考。
**声明:**公众号转载的文章及图片出于非商业性的教育和科研目的供大家参考和探讨,并不意味着支持其观点或证实其内容的真实性。版权归原作者所有,如转载稿涉及版权等问题,请立即联系我们删除。
"人工智能技术与咨询" 发布