Please wait a minute...

当期目录

      
    专题:面向6G的智能至简网络关键技术
    6G-ADM:基于知识空间的6G网络管控体系
    廖建新, 付霄元, 戚琦, 王敬宇, 孙海峰
    2022, 43(6):  3-15.  doi:10.11959/j.issn.1000-436x.2022127
    摘要 ( 551 )   在线阅读 ( 89 )   PDF下载 (1986KB) ( 688 )   可视化   
    数据和表 | 参考文献 | 相关文章

    目的:随着立体覆盖、极致性能、虚实融合、泛在智能等 6G 愿景达成共识,个性化服务定制、网元种类激增、场景叠加多变等问题将给网络管控体系带来更加严峻的挑战。对 6G 网络而言,网元、协议、应用、架构等都将呈现高度异构性与复杂性。智慧内生与至简网络为6G 网络架构与功能设计提供了可行思路。智慧内生的 6G 网络,其网元具备不同级别的智能性,可自主生成策略完成传统人工配置策略实现的网络功能,为更高效的网络管控提供了基础条件。从大道至简的网络设计思想出发,由高效的网络管控入手,可通过全网多层级资源的快速高效组织与调配,简化网络架构、精简复杂协议、减轻人工运维,实现全场景网络按需服务。当前 5G 网络管理、控制和运维系统独立封闭,重点解决具体场景问题,其安全性、智能性、协同性缺乏全局规划和统一设计,难以应对未来沉浸式、个性化的全场景服务和性能需求,亟待面向 6G 按需服务的网络管控体系构建与关键技术突破。

    方法:面向智简网络的设计需求,本文将网络内生智能的管控知识空间引入 6G 管控体系,知识空间负责收集和提取超级智能网络节点通过智能计算生成的网络管控经验和知识,构成网络管控知识库,对网络需求的感知、网络资源的共享以至于全域网络管控策略的生成起到超级大脑的作用,最终实现下一代网络实现基础设施之上只有一层知识空间作为管控决策层的 6G 管控架构内生智能与极简优化。基于此,本文提出基于知识空间的 6G 网络管控体系,简称为6G-ADM(6G admin)。

    结果:为了实现 6G 业务的个性化定制,提高 6G 业务的性能,阐释网络管理、控制和运维的一体化集成趋势,网络的管控体系的发展将顺应“智简网络”的趋势发展形成“智简的管控一体化体系”。管控体系内生智能,智能管控的概念和策略生成过程趋于简约化,却将以更细粒度的方式分配资源。6G 网络将支持全场景的个性化、沉浸式服务,要为用户提供极低时延、极高可靠等极致性能体验。6G 资源很丰富,但仍然是有限的,需求增长和资源消耗存在矛盾,对细粒度资源的高度适配提出了重要挑战。本文提出 6G-ADM 完善网络管理和控制知识,旨在形成一个闭环来支持按需服务,并有效地处理 6G 网络中需求增长与资源消耗之间的矛盾。本文考虑到通过网络知识的内生智能实现可持续的按需服务,建立知识空间来协调人工智能和传统人工定义。

    结论:作为实现 6G-ADM 闭环管控功能的两项关键技术,本文提出了一种新的网络切片方法基于知识空间的异常检测方法。6G-ADM 将包括资源分配和异常检测在内的闭环服务策略转化为全局网元的执行行为。本文通过仿真实验验证了所提方法的有效性。

    6G联邦边缘学习新范式:基于任务导向的资源管理策略
    王志勤, 江甲沫, 刘沛西, 曹晓雯, 李阳, 韩凯峰, 杜滢, 朱光旭
    2022, 43(6):  16-27.  doi:10.11959/j.issn.1000-436x.2022128
    摘要 ( 501 )   在线阅读 ( 82 )   PDF下载 (2498KB) ( 518 )   可视化   
    数据和表 | 参考文献 | 相关文章

    目的:为充分利用分布在网络边缘的丰富数据使之服务于人工智能模型训练,以联邦边缘学习为代表的边缘智能技术应运而生,本文综述了面向 6G 的联邦边缘学习技术,能够充分利用分布在网络边缘的丰富数据使之服务于人工智能模型训练,并以最优化学习性能(如优化模型训练时间、学习收敛性等)为目标设计无线资源管理策略。

    方法:利用联邦学习网络架构,本文对资源分配和用户调度方案进行分析:1.对于资源分配问题分析在以最小化总训练时间为目标时的通信轮数和每轮时延之间的折中关系,为了满足每轮训练的时间约束,应该给计算能力低的设备分配更多的频率带宽,通过减小通信时间补偿计算时间,反之亦然。因此,设备间的带宽分配应该同时考虑信道条件和计算资源,这与传统只考虑信道条件的带宽分配工作截然不同。为此,需要建模总训练时间最小化问题,优化量化级数和带宽分配,设计交替优化算法解决该问题。2.对于用户调度问题通过将数据重要性和仍需通信轮次相联系、信道质量和单轮通信延时相联系,利用理论模型将两者统一,建模通信时间最小化优化问题。通过求解该优化问题发现,最优的调度策略在前期会更多地注重数据重要性,而在后期更注重信道质量。此外,还将所提的单设备调度算法也扩展至多设备调度场景当中。

    结果:1.对于资源分配问题,当带宽分配最优时,通过仿真得到的总训练时间与量化级数的关系,在每个量化级数上运行相同的训练过程至少5次,且存在使总训练时间最小化的最优量化级数。总训练时间 T= N ϵ T d ,且 N ϵ 是量化水平 q 的递减函数,而Td是 q 的递增函数。此外,通过理论优化中得到的最优量化级数与仿真结果一致,同时验证了所提算法的有效性。根据损失函数最优值间隔与训练时间的关系所示,通过求解训练时间最小化问题得到了最优量化级数和最优带宽分配策略。2.对于用户调度问题,仿真中将所提用户调度(TLM)方案与其他3个常见的调度方案比较,并分别显示了在通信时间为6000s和14000s时的平均精度,其中平均精度通过测量预测值与真实值的联合交叉(IoU, intersection of union)得到。其中CA方案在信道衰减最大的1号车产生了最差的精度,而 IA 方案在数据不太重要的4号车展现了最低的精度。ICA方案的目的是在CA和IA之间找到一个平衡点,但由于其启发式的性质,性能低于TLM方案。

    结论:1.最优量化级数和最优带宽分配下的训练损失在更短的时间内达到了预定的阈值,并且能取得最高的测试准确率。其次,非最优量化级数和最优带宽分配下的训练性能会优于最优量化级数和平均带宽分配的性能,这同时验证了资源分配的必要性。2.TLM方案在训练早期取得了稍好的性能,充分训练后明显优于所有其他方案。这是由于所提TLM方案中固有的前瞻性质比现有的CA、IA和ICA方案中的近视性质更有优势。

    面向6G的跨模态信号重建技术
    李昂, 陈建新, 魏昕, 周亮
    2022, 43(6):  28-40.  doi:10.11959/j.issn.1000-436x.2022093
    摘要 ( 362 )   在线阅读 ( 36 )   PDF下载 (2508KB) ( 567 )   可视化   
    数据和表 | 参考文献 | 相关文章

    目的:众所周知,包含音频、视频、触觉的多模态业务如混合现实、数字孪生、元宇宙等势必会成为6G时代下的杀手级应用,然而,该业务产生的大量多模态数据极易对现有通信系统的信号处理、传输、存储等造成负担。因此,为了满足用户沉浸式体验需求和保障低时延、高可靠、大容量的通信质量,迫切需要一种跨模态信号重建方案来减少传输数据量,以支持6G沉浸式多模态业务。

    方法:首先,通过控制机器人触摸各种材质,构建了包含音、视、触信号的数据集VisTouch,为后续各种跨模态问题的研究奠定基础;其次,通过利用多模态信号间的语义关联性,设计一种普适的、稳健的端到端跨模态信号重建架构,包含特征提取模块、重建模块、评估模块3个部分,特征提取模块将源模态信号映射为公共语义空间中的语义特征向量,重建模块将此语义特征向量反变换为目标模态信号,2种模块的级联结构是跨越模态“壁垒”的关键,评估模块从语义维度、信号本身的时空维度对重建质量进行评估,并在框架训练过程中反馈优化信息给特征提取模块与重建模块,形成闭环回路,通过不断迭代实现精准信号重建;再次,以通过视频信号重建触觉信号为例,构建视频辅助的触觉重建模型,包括基于3D CNN的视频特征提取网络,基于全卷积网络的GAN生成网络与基于CNN的GAN辨别网络;进一步地,设计了一种遥操作平台,将所构建触觉重建模型部署到编解码器中,以实际验证模型的运行效率;最后,通过实验结果验证跨模态信号重建架构的可靠性以及触觉重建模型的准确性。

    结果:所构建的VisTouch数据集涉及音频、视频、触觉三种模态,包含47种生活中常见的片状样本,数据采集手段为脚本控制机械手滑动触摸各种材质,并记录滑动触摸过程中指尖与材质摩擦产生的滑动摩擦力作为触觉信号,同时利用高清摄像头及挂载在机械手的单向拾音器采集视频、音频信号,并用时间戳进行同步;所构建视频辅助的触觉重建模型在VisTouch数据集上的平均绝对误差与准确度分别达到0.0135与0.78,为了将所提跨模态信号重建框架落地到实际应用场景,利用机械人、英伟达开发板进一步搭建了一种遥操作平台,用于实现工业场景中远程抓取物体的任务,该平台运行结果表明,实际平均绝对误差为0.0126,端到端总时延127ms,重建模型时延98ms,同时采用问卷调查方式评估用户满意度,其中触觉真实性满意度均值为4.43,方差为0.72,时延满意度均值为3.87,方差为1.07。

    结论:数据集运行结果充分证明了所构建VisTouch数据集的实用性和视频辅助下的触觉重建模型的准确性,同时遥操作平台实际测试结果表明,用户认为该模型所生成出的触觉信号比较贴近实际信号,但对算法运行时间满意度一般,即本模态复杂度有待进一步优化。

    面向智能任务的语义通信:理论、技术和挑战
    刘传宏, 郭彩丽, 杨洋, 陈九九, 朱美逸, 孙鲁楠
    2022, 43(6):  41-57.  doi:10.11959/j.issn.1000-436x.2022117
    摘要 ( 2835 )   在线阅读 ( 341 )   PDF下载 (2824KB) ( 1603 )   可视化   
    数据和表 | 参考文献 | 相关文章

    目的:未来机-机、人-机万物智能互联对传统通信方式提出了挑战,提取信源语义信息进行传输的语义通信方法为6G通信系统提供了新的解决方法。然而如何度量语义信息、如何实现最优的语义编解码等均存在挑战,本文综述现有语义通信相关的论文,提出面向智能任务的语义通信方法和框架,为进一步推动语义通信的发展铺平道路。

    方法:首先综述了语义通信的发展历程和研究现状,通过分析总结了语义通信面临的两大瓶颈问题,提出了面向智能任务的语义通信方法。针对语义熵难度量的问题,本文通过定义构成语义消息的最小基本单元为语义元,引入模糊数学理论刻画语义理解的模糊程度,给出语义信息熵的计算表达式。紧接着,本文基于信息瓶颈理论提出了语义信息编码方案和语义信道联合编码方案,分别考虑了接收端是否需要重建原始信源的场景;此外,从神经网络可解释性的角度出发,提出了基于可解释性的语义编码方法。最后,基于USRP和LabView等软硬件搭建了面向智能任务的语义通信平台,对所提算法进行性能验证。

    结果:在需要重建信源的通信场景中,本文所提的语义通信方法可以大大提升信源数据的压缩比,大幅降低传输的数据量;在相同的压缩比下可以提升接收端执行后续智能任务的性能,同时提升信源重建的性能。在无需重建信源的场景中,语义通信方式可以在极大压缩比的情况下,较好地完成智能任务,这是因为语义通信传输图像的语义信息而非图像的所有数据,大大减小了其带宽需求,实现语义通信的带宽利用率超出传统通信方式的100倍。此外,语义通信方式抗噪声性能远远好于传统通信方法,这是因为语义通信方法传输的数据保留了图像的语义特征,且模型训练时考虑了信道噪声的影响,使智能任务性能更优,具有更好的鲁棒性。语义通信方式由于传输数据量大大减少,因此在带宽资源相同的情况下,传输时延显著下降;此外,由于不需要进行图像的重构,软硬件的处理负荷减小,处理时延也有所下降。因此本文所提的方案可以在保证高精度分类性能的同时,大幅减少了端到端智能任务的时延。

    结论:面向智能任务的语义通信方法相较于传统通信方法具有明显优势,可以在大幅降低传输数据量的同时提升接收端智能任务的性能,因此语义通信将继续保持快速发展的趋势。然而,语义通信中仍有大量的基础概念和基础问题亟需进一步讨论和完善,如语义信息的基础理论、语义通信的统一架构和语义通信中的资源分配策略等等,对这些问题进行探讨和研究对推动6G时代的技术创新和突破具有重要意义,需要学术同仁共同推动实现。

    学术论文
    基于Bert和BiLSTM-CRF的APT攻击实体识别及对齐研究
    杨秀璋, 彭国军, 李子川, 吕杨琦, 刘思德, 李晨光
    2022, 43(6):  58-70.  doi:10.11959/j.issn.1000-436x.2022116
    摘要 ( 803 )   在线阅读 ( 82 )   PDF下载 (1530KB) ( 749 )   可视化   
    数据和表 | 参考文献 | 相关文章

    目的:面对当前复杂变化的网络安全环境,如何对抗高级可持续威胁(APT)攻击已成为整个安全界亟需解决的问题。安全公司生成的海量APT攻击分析报告和威胁情报具有极其重要的研究价值,它们能有效提供APT组织的动态,从而辅助网络攻击事件的溯源分析。针对APT分析报告未被有效利用,缺乏自动化方法生成结构化知识并形成黑客组织特征画像问题,本文提出一种融合实体识别和实体对齐的APT攻击知识自动抽取方法,旨在从APT分析报告中自动抽取实体,形成APT组织的结构化知识。

    方法:设计一种融合实体识别和实体对齐的APT攻击知识自动抽取方法。首先,结合APT攻击特点设计12种实体类别,通过预处理层对语料进行小写转换、数据清洗和数据标注,并将预处理后的APT文本序列表征成向量;其次,通过Bert预训练,对每个词语编码并生成对应的字向量,构建 BiLSTM 模型来捕获长距离和上下文语义特征,再结合注意力机制突出关键特征,将向量序列转换为标注概率矩阵;再次,通过CRF算法对输出预测标签间的关系进行解码,生成最优的标签序列;最后,构建语义相似度和Birch的实体对齐方法,通过知识匹配提升所抽取APT攻击知识的质量,最终融合形成各APT组织的知识消息盒。

    结果:在实体识别方面,本文提出的APT攻击实体识别方法比现有常见的实体识别方法(CRF、LSTM-CRF、GRU-CRF、BiLSTM-CRF、CNN-CRF和Bert-CRF)的实验结果均有一定程度的提升,其精确率、召回率和F1值分别为0.929 6、0.873 3和0.900 6。相比于CRF,本文模型的F1值提升了14.32%;相比于融合卷积神经网络的CNN-CRF,本文模型的F1值提升了6.92%;相比于LSTM-CRF和BiLSTM-CRF,本文模型的F1值分别提升了 8.43%和 5.30%;相比于 GRU-CRF,本文模型的F1值提升了 8.74%;相比于 BertCRF,本文模型的F1值提升了7.03%。同时,本文模型的准确率为0.900 4,比其他6种模型的平均值高9.85%。本文模型训练过程更加稳定,整个曲线收敛速度更快,能在较少训练批次下取得较高的准确率;误差随训练周期收敛速度更快,曲线更平缓。此外,本文模型在“攻击手法”实体类别上的预测效果最佳,其F1值为0.927 5,这一方面是由于该类别的实体数量较多,另一方面是该类实体广泛存在于富含语义的APT攻击事件中,并且带有攻击行为的动作特征,从而导致其识别效果更好。在小样本标注的实体识别方面,本文方法的精确率、召回率和F1值分别为0.780 0、0.589 4和0.671 4。其F1值比CRF模型提升了27.42%,比LSTM-CRF模型提升了18.78%,比GRU-CRF模型提升了23.62%,比BiLSTM-CRF模型提升了13.25%,比CNN-CRF模型提升了14.88%,比Bert-CRF模型提升了14.46%。该实验充分说明了本文方法能通过Bert模型对小样本语料开展预训练,从而提升实体识别的效果。在实体对齐与知识融合方面,本文实验自动化抽取各类实体类别出现频率较高的命名实体,这些实体常常存在于APT攻击事件中。比如常见APT组织包括“APT29”“APT32”“APT28”和“Turla”等;常见攻击装备包括“PowerShell”“Cobalt Strike”和“Mimikatz”等;常见攻击手法包括“Spearphishing”“C2”“Watering Hole Attack”和“Backdoor”等;常见漏洞包括“CVE-2017-11882”“CVE-2017-0199”和“CVE-2012-0158”等。本文结合语料标题和关键词对APT组织名称开展实体融合,最终构建了该数据集常见APT组织的知识消息盒,形成各APT组织的结构化知识,并详细展示了APT28和APT32的攻击领域知识。

    结论:本文结合APT攻击特点,设计并实现一种融合实体识别和实体对齐的APT攻击知识自动抽取方法。该方法能有效识别APT攻击实体,在少样本标注的情况下自动抽取高级可持续威胁知识,并生成常见APT组织的结构化特征画像,这将为后续APT攻击知识图谱构建和攻击溯源分析提供帮助。

    面向持久性连接的自适应拟态表决器设计与实现
    周大成, 陈鸿昶, 程国振, 何威振, 商珂, 扈红超
    2022, 43(6):  71-84.  doi:10.11959/j.issn.1000-436x.2022081
    摘要 ( 178 )   在线阅读 ( 14 )   PDF下载 (1159KB) ( 185 )   可视化   
    数据和表 | 参考文献 | 相关文章

    目的:拟态表决器是拟态防御技术的动态异构冗余架构下的关键组件,但是现有拟态表决方法需要分析处理异构冗余执行体的完整输出数据,在基于HTTP 1.1协议的基于持久性连接持续传输数据分块的应用场景中存在表决效率过低、内存资源开销过大的问题。本文面向持久性连接的数据分块持续输出的场景,设计实现面向持久性连接的自适应拟态表决器,以降低表决器的内存资源开销并提高该场景下的表决效率。

    方法:通过自适应切分陆续到达表决器的异构冗余分块报文,在数据持续传输过程中以滑动窗口的方式对分块报文的数据进行动态表决与输出,并逐步释放已表决分块报文数据,从而在保持持久性连接的数据传输连续性的条件下降低数据表决处理时间和拟态表决器的内存消耗。一方面,分析滑动窗口式表决的分块传输编码报文的数据特征,构建表决算法选择策略集,给出表决器在滑动窗口式的数据表决时的表决准确性的维护方案。另一方面,建立自适应拟态表决器的数据表决过程的存贮模型,并基于存贮模型的成本优化提出自适应表决窗口控制策略,为待表决数据的提供最佳的自适应切分方案。

    结果:基于Nginx实现自适应拟态表决器的原型系统并与传统的拟态表决器进行一系列的对比实验。(1)通过对内存资源占用量评估发现,自适应拟态表决器在传输20MB分块编码传输的Web资源时消耗的物理内存的峰值及消耗物理内存的总时间相较于传统拟态表决器均明显降低;(2)通过传输时延评估发现,自适应拟态表决器在表决处理10MB至320MB的分块传输编码的网页资源的响应时间均较低,说明其表决速率得到明显提高;(3)通过并发性能评估发现,自适应拟态表决器在1000至5000的并发量下的系统平均响应时延低于传统拟态表决器的,表决处理吞吐量也高于传统拟态表决器;(4)通过表决准确性评估表明,基于表决算法选择策略集的自适应拟态表决器相较于分别采用字符相似度算法、语义特征算法、层次分析算法的传统拟态表决器,在多个HTML的数据篡改场景中略弱于语义特征算法和层次分析算法,但远优于字符相似度算法,因此具有可接受的表决准确率。

    结论:自适应拟态表决器有效解决了持久性连接传输分块报文的表决过程中的内存资源的过度占用带来的服务性能下降问题。资源开销实验说明了自适应拟态表决器对该问题的改善效果;表决准确度评估实验说明了自适应拟态表决器在提高表决效率的同时维护了可接受的表决准确性;不同数据规模和不同服务压力下的实验以微基准的方式说明了自适应拟态表决器在一般应用场景下的可行性。因此,本文所设计实现的自适应拟态表决器在可接受的表决准确度下降低了资源开销并提高了表决效率,可有效支撑在持久性连接中传输数据的应用程序的拟态化改造。

    面向不等差错保护的低误码平台LT编码算法
    宋鑫, 倪淑燕, 张喆, 廖育荣, 雷拓峰
    2022, 43(6):  85-97.  doi:10.11959/j.issn.1000-436x.2022123
    摘要 ( 242 )   在线阅读 ( 31 )   PDF下载 (1067KB) ( 162 )   可视化   
    数据和表 | 参考文献 | 相关文章

    目的:无速率LT码旨在为大规模数据分发和可靠广播提供一种理想的传输协议。无速率LT码具有三个优良的特点:(1)链路自适应;(2)码率值可无隙切换;(3)反馈方式较为简单。在无线数据传输中有一类重要的应用场景,即不等差错保护(UEP)数据传输。作为第一种可实现的无速率码,无速率LT码可以便捷地与UEP算法联合设计以实现自适应数据传输。但是,传统的UEP-LT码算法在加性白高斯噪声(AWGN)信道中存在的高误码平台、收敛速度慢等问题。为此,本文设计了一种改进的系统UEP-LT编码方案。

    方法:本文考虑面向AWGN信道设计独立的系统UEP-LT码,给出了与该方案相匹配的校验度分布设计方法,并提出了一种具有分段特点的编码方案。该方案中设计了与消息节点一一相连的系统节点,用以提供来自信道的非零对数似然比(LLR)信息。之后是固定长度的校验节点,即固定段,该段校验节点只连接到重要比特(MIB),其目的是使MIB最接近译码成功状态。最后是无速率编码段,该段中的校验节点会选取MIB或者次要比特(LIB)作为邻居节点,并且连接至MIB和LIB的校验节点占比可以灵活调整,从而使MIB始终优先于LIB被成功译码。本文还提出了与上述编码方案相适配的度分布设计模型。该设计模型旨在为MIB提供足够宽的外信息译码通道,为LIB提供一个开放且不太窄的译码通道。在只传输固定段时,待设计的度分布应使得MIB最接近于成功译码状态。在开始传输无速率段时,待设计的度分布应确保MIB尽快地被正确恢复,且在LIB处于临界译码状态时,MIB的译码通道足够宽。在上述约束条件下,所设计的校验度分布可以为MIB提供优于LIB的收敛性能。

    结果:以码长K等于6000时为例进行仿真,结果显示:(1)信噪比较低时,本文方案的MIB具有最低的误码平台。例如,当码率倒数R-1=2.05时,与参考方案相比,本文方案MIB的误比特率(BER)降低了近一个数量级,最低可达10-7量级。此外,本文方案还具有最优的收敛性能,即能够以较小的编码开销进入BER瀑布区。以10-7作为BER衡量标准,则本文方案可节省的开销至少为码长K的10%,这体现了本文方案的优势。(2)信噪比较高时,无论是MIB还是LIB,本文方案的BER性能是最优的。对于MIB而言,本文方案的BER始终低于参考方案一个数量级以上。若考虑以10-6为BER标准,本文方案可节省的开销约为码长K的7%;不过,此时的信噪比较高,若进一步考虑以10-7为BER标准,则本文方案可节省的开销约为码长K的15%。这意味着当信噪比增加时,本文方案的性能提升幅度要高于参考方案。

    结论:本文设计了一种系统不等差错保护LT编码方案,并构建了适用于该方案的校验度分布设计模型,以解决传统UEP-LT算法在AWGN信道中存在的高误码平台的问题。该模型的主要思想是设计固定编码段、无速率编码段以及系统节点段,并将它们按顺序传输,优势在于可为消息节点尽可能早地提供非零的LLR信息,并使MIB和LIB获得不同的且可灵活调整的平均节点度数值。此外,基于外信息传递(EXIT)图法为固定段和无速率段设计了校验度分布,使MIB获得最优的保护性能,同时尽可能地提高LIB的收敛性能。在后续工作中,可以考虑设计能够更加逼近信道容量的校验度分布模型,从而在给定BER标准时实现进一步提升方案编码效率的效果。

    基于APG合并及拓扑势优化的启发式用户关联策略
    胡志蕊, 毕美华, 许方敏, 何美霖, 郑长亮
    2022, 43(6):  98-107.  doi:10.11959/j.issn.1000-436x.2022121
    摘要 ( 175 )   在线阅读 ( 11 )   PDF下载 (1483KB) ( 276 )   可视化   
    数据和表 | 参考文献 | 相关文章

    目的:去蜂窝网络通过接入点(AP)间协同服务网络内的用户,可突破传统蜂窝网络因密集小区间干扰造成的性能瓶颈,但需要大量的信息交互及信号处理,导致网络的可扩展性较差。为此,本文研究可提升去蜂窝网络可扩展性的用户关联策略。

    方法:设计网络可扩展度作为可扩展性的衡量指标,以此为基础,利用优化理论研究提高网络可扩展度的用户关联策略。1)优化问题建模方面,首先,以节点间关联度是影响网络可扩展度的关键因素为突破点,构造表征节点间关联度的网络耦合度指标,以此建立起网络可扩展度与接入点簇(APG)间的数学关系,从而将提高网络可扩展度问题建模为最小化网络耦合度问题。然后,建立网络耦合度最小和用户速率最大的多目标优化问题,以此寻求网络可扩展度与网络服务质量的均衡。2)优化问题求解方面,为避免求解多目标优化问题的高计算复杂度,提出基于APG合并及拓扑势优化的启发式算法。所提算法通过APG合并的方式降低APG数目,并通过AP退出APG的方式降低AP所属APG的数目,从而降低网络耦合度,提高网络可扩展度。在APG合并方面,定义 β{I,J}=2| IJ |/( | I |+| J | )表示集合 I,J间的重叠率,并将重叠率超过一定门限值的APG进行合并;在AP退出APG方面,利用拓扑势函数建立网络耦合度和用户速率的关系,以此作为AP选择退出APG的性能指标。

    结果:1)问题建模的合理性方面,如图2和图5所示,网络可扩展度η与网络耦合度κ的大小成反比,因此将提高网络可扩展度问题建模为最小化网络耦合度问题是合理的,通过降低网络耦合度来提高网络可扩展度是可行的;2)启发式算法的计算复杂度方面,所提算法的计算复杂度上限为 O(KN log 2 N+ k 2 +NN N ¯ p ),而直接求解优化问题的计算复杂度为O( N N ¯ u K );3)网络可扩展度的理论分析方面,以图3为例,假设AP2发生变动,图3(a)中受影响的AP有12个,网络可扩展度为η2=0.51,而图3(c)中受影响的AP有4个,网络可扩展度为η2=0.79;4)网络可扩展度的仿真验证方面,如图5所示,与传统策略相比,用户速率损失4.43%时,可扩展度可提高9.59%;与文献[10]的策略相比,用户速率损失4.99%时,可扩展度可提高22.15%;5)所提算法中重叠率门限β0和AP所关联AP数上限N0的影响方面,如图6所示,随着β0或N0的减小,h提高,用户总速率降低。随着 N ¯ p 的增大,β0的影响度增加,N0的影响度降低。以 N ¯ p =40,60为例,β0=0.5和β0=0.9间h的差距由5.97%增大到14.17%,用户速率差距由47 bit/(s·Hz)增大到155 bit/(s·Hz);而N0=20和N0=60间η的差距由1.4%减小到0.4%,用户速率差距由76 bit/(s·Hz)减小到29 bit/(s·Hz)。

    结论:所提用户关联策略以较小的用户速率损失为代价,提高了去蜂窝网络的可扩展度。所提策略中重叠率门限或AP所关联AP数上限越小,则网络可扩展度提升越多,速率损失越大。

    密码服务资源按需高效调度方案
    寇文龙, 张宇阳, 李凤华, 曹晓刚, 李佳旻, 王竹, 耿魁
    2022, 43(6):  108-118.  doi:10.11959/j.issn.1000-436x.2022092
    摘要 ( 205 )   在线阅读 ( 25 )   PDF下载 (1974KB) ( 310 )   可视化   
    数据和表 | 参考文献 | 相关文章

    目的:网络技术的普及使得越来越多的企业和个人加入到互联网的浪潮中,数据呈现出爆炸式的指数级增长趋势。数据安全传输和细粒度认证需求的日益增长,各类应用对密码服务的使用愈发频繁,如何处理随机交叉且峰值差异大的密码服务请求逐渐成为制约各种网络安全应用的瓶颈问题。本文提出密码服务调度系统模型,探索密码服务资源的差异化动态按需调度。

    方法:利用优化熵值法和密码资源重构技术,为接入服务体系的用户和设备提供动态可扩展的密码服务资源。首先,提出密码设备服务能力评价方法,通过获取密码设备的密码资源使用率、网络吞吐率等运行状态信息,采用优化熵值法对数据进行处理,结合密码设备的密码资源配置,对密码设备提供的密码服务能力进行描述,为密码作业调度提供支撑。进而,提出了按需高效的密码作业调度策略,提出密码服务请求期望,通过计算密码设备的负载距离来判断是否满足密码服务需求,以此来生成密码作业调度策略。此外,还可以根据调度算法需要对密码设备进行重构,适应密码服务在服务质量、服务效率等方面的差异化需求。

    结果:实验采用增强型负载均衡Min-Min算法、动态一致性哈希的集群负载均衡算法和本文所提调度算法作对比,通过发送密码服务请求的方式,分别测试3种调度算法的密码作业最大完成时间、单位时间可服务请求数量和现场可编程门阵列(FPGA,field programmable gate array)密码计算单元平均负载。从图7中可以看出,在密码服务请求数量较少时,3种调度算法的差异不太明显,但是随着密码服务请求数量的增加,FPGA计算单元的负载逐渐增大,另外两种调度算法由于不考虑密码作业迁移和FPGA计算单元动态配置,密码作业排队时间增加显著,与本文调度算法的差距越来越大。从图8中可以看出,在密码服务请求数量较少时,3种调度算法的差异不太明显,都能够满足大部分的密码服务请求,但是随着密码服务请求数量的增加,3种调度算法的单位时间可服务请求数量均达到峰值,由于本文调度算法实现了密码作业迁移和FPGA计算单元动态配置,使单位时间可服务请求数量要高于另外两种调度算法。从图9中可以看出,本文调度算法在尽量减少密码作业迁移和FPGA计算单元重构的前提下,将密码作业优先调度到同一个FPGA计算单元,因此在密码服务请求数量较少时只有一个FPGA计算单元有负载,并且随着密码服务请求数量的增加,同时工作的FPGA计算单元数量也随之增加。从图10~图11中可以看出,其他2种算法的FPGA负载相对比较均衡,在密码服务请求数量较大的情况下,每个FPGA的负载均较高,当新的密码服务请求到来时,由于不考虑密码作业迁移和FPGA计算单元动态配置,FPGA计算单元剩余计算能力不足以满足密码服务需求。

    结论:本文提出了一种高效的密码服务资源按需调度方案。通过使用基于优化熵值法的密码设备归一化评价模型实现对密码服务能力的描述和动态监测;同时,提出适用不同需求的密码作业调度策略,并结合密码资源重构策略,实现对密码资源的差异化配置与调度;实现了将动态可扩展的密码服务资源提供给任何接入服务体系的用户和设备。

    HSTC:TSN中的混合流量调度机制
    尹长川, 李妍珏, 朱海龙, 何欣欣, 韩文璇
    2022, 43(6):  119-132.  doi:10.11959/j.issn.1000-436x.2022103
    摘要 ( 443 )   在线阅读 ( 53 )   PDF下载 (1698KB) ( 603 )   可视化   
    数据和表 | 参考文献 | 相关文章

    目的:随着工业4.0时代的到来,工业生产控制系统智能化程度越来越高,对信息的实时性和确定性传输提出了更高要求,时间敏感网络(Time-Sensitive Networking, TSN)由于具有良好的兼容性、低时延抖动等特性,被引入工业网络。为借助 TSN 实现工业网络中混合流高效传输,本文对TSN中的新型流量调度机制进行探索。

    方法:研究新型 TSN 系统设计方案,基于集中式软件定义网络(SDN, software defined network)架构,设计了一种确定网络最小调度时隙的方法,并基于该最小时隙调整预订流(ST, scheduled traffic)类流量的采样周期,通过降低ST流对发送带宽的占用,为流预留(SR, stream reservation)类流量预留更多传输资源,从而提升网络可调度性。进一步针对SR流,提出奇偶映射的流映射策略,并且,当网络中出现SR流不可调度的情况时,设计流偏移规划(FOP, flow offset planning)算法,对SR流的注入时间进行偏移调整,通过提高系统资源利用率,进一步提升网络可调度性。

    结果:为验证所提HSTC机制核心算法的性能,本文搭建实验平台,从ST流带宽占用、流调度优先级、SR 流映射、注入时隙选择等角度,将本文所提机制与现有机制进行性能仿真对比验证。实验设置网络最大帧长MTU=1500B,交换机单队列的最大缓存值BufSize=6MTU,链路速率1000 Mbit/s。每条ST流的最大采样周期和包长分别从集合{0.6, 0.8, 1, 1.2, 1.6}ms,{0.4, 0.5, 0.6, 0.7, 0.8, 0.9, 1}kB中随机选取,所有ST流的最小采样周期均设为0.1 ms,ST流的截止时间为其实际采样周期。SR流采样周期和包长分别从集合{4, 6, 8, 10, 12, 16, 20}ms,{1.5, 2, 2.5, 3, 3.5, 4, 4.5}kB中随机选取,每条SR流的截止时间取 [0.5× T j R , T j R ]范围内一个随机整数值。主要实验结果为:①调整ST流采样周期:若不进行采样周期调整,当流数目达到12,发送ST流占据了80%以上的网络带宽,而采用本文所提方案调整采样周期后,ST流的带宽占用大幅降低。②流调度优先级:本文所提方案具有最优性能,其余方案性能排序依次为最大包长优先、最短截止时间优先、最小采样周期优先,相对于次优的最大包长优先方案,本机制所采用的加权排序方案至多能将网络调度成功率提高0.52。③SR流映射:随着SR 流数量的增加,本文所提出的奇偶映射方案对提升网络调度成功率的影响越显著,与按截止时间映射方案的网络调度成功率的最大差值达到20%。④注入时隙选择:相较于次优的随机选择注入方案,HSTC中的时隙排序方案可将网络调度成功率的值至多提升0.77,极限带宽利用率可达88%。⑤综合性能对比:在本文所研究场景下,以相同网络配置及流参数,与两篇代表性的现有文献所提方案进行性能对比,实验结果表明,HSTC机制实现了降低求解复杂度与提升调度性能的双重优化。

    结论:目前,如何在工业网络中充分发挥 TSN 精准的流量调度能力,为生产控制系统提供确定性和实时性保障,仍是TSN的一个研究重点。为此,本文提出一种HSTC混合流量调度机制,该机制将TAS与CQF这2种现有方案进行有机结合,并根据时间敏感流和大带宽流的流特性,为两类流制定不同的调度策略。实验结果表明,HSTC机制通过提升系统资源利用率显著提高了网络可调度性,实现了TSN混合流的高效调度。现有对TSN的网络规划多基于离线调度场景,但在实际工业网络中,还存在由事件触发的少量突发流量,这些流无固定参数,但对系统的正常运转有着重要影响,因此如何改进现有方案,使之同时支持突发流的混合传输,是本文下一步的研究方向。

    基于动态图嵌入的车联网拓扑控制
    孙雁飞, 尹嘉峥, 亓晋, 胡筱旋, 陈梦婷, 董振江
    2022, 43(6):  133-142.  doi:10.11959/j.issn.1000-436x.2022122
    摘要 ( 323 )   在线阅读 ( 36 )   PDF下载 (823KB) ( 583 )   可视化   
    数据和表 | 参考文献 | 相关文章

    目的:随着汽车市场规模的增长,道路运载负荷压力也不断增加,但由于车联网的动态性、复杂性及较差的通信环境,以及车辆间快速变化的相对距离及互相遮挡,导致网络节点间出现频繁的断连和信号的衰落,使得网络拓扑的控制十分困难。为了构建更加稳定合理的车联网,本文利用模糊推理等方法提取驾驶员特征,提出针对车联网环境的图嵌入技术,充分利用车辆特征构建网络,实现车联网的拓扑发现及控制。

    方法:利用本文提出的范围标签图嵌入(LRGE)方法发现并控制车联网拓扑。首先,建立车辆网络模型,按照路测单元合理地划分路段为多个子网络,使用驾驶员辅助系统获得车辆的相关历史信息,利用傅里叶变换、模糊推理方法,提取驾驶员的驾驶特征,并处理车辆信息得到低维特征向量。然后对新加入网络的车辆采用所提出的基于范围的冷启动方法,根据目标车辆加入区域的车辆特征,更新修正其特征向量,使新加入的车辆节点与新网络中车辆节点更易建立连接。最后基于车联网的应用环境,使用LRGE游走方式进行车辆节点间的随机游走,根据LRGE图嵌入模型对建立的随机游走进行优化,确定邻接矩阵,并根据历史序列信息进行动态更新。该方法针对实际车联网的特征,融合特征向量与驾驶员驾驶特征标签信息,进行拓扑发现及控制。使用平坦衰落复合信道模型仿真实际通信环境,并在 NGSIM 真实车辆数据集上进行实际效果的测试。

    结果:从NGSIM数据集及平坦衰落复合信道的通信条件下的仿真结果可以看出,LRGE方法基本可以实现较为合理的网络拓扑控制,驾驶风格较为激进的车辆更偏向于同前向车辆集群建立连接,相似驾驶风格的车辆可以更长时间地建立稳定的连接。与随机网络、深度游走(DeepWalk)图嵌入、Node2Vec图嵌入方法及动态生长(DN)算法进行对比。测试建立的连边数目、通信断链概率和网络可达节点间的平均跳数指标,发现Node2Vec方法及LRGE方法建立的网络较为合理,断链概率较低,网络冗余较少,构建的网络拓扑更切实可行。为了体现主要目标属性网络连通性和稳健性优劣,对比所建立网络拓扑的连通概率、PageRank表示的重要性分布及割点占比,LRGE方法建立的网络连通概率高,网络重要性分布平坦,割点占比较少,在连通性和稳健性方面,具有优势。变更通信条件,对比不同通信条件下的相对关系,进一步验证了实验的结果。

    结论:虽然车联网的高度动态性及复杂性使得网络难以合理稳定构建,但是车辆及驾驶员本身具有不同的特征,因此,可以提取并利用这些特征来辅助网络拓扑的控制。通过模糊推理等方法提取驾驶员特征,使用可以充分利用车辆特征信息的针对车联网特征的图嵌入方法,可以更加合理有效地构建网络拓扑。并且图嵌入方法计算简单,建立的网络性能优秀,能够对动态性较强的车联网做出快速地反应,及时更新网络拓扑,最终可以实现具有良好动态性、连通性以及健壮性的车联网拓扑控制。

    面向多模态网络业务切片的虚拟网络功能资源容量智能预测方法
    兰巨龙, 朱棣, 李丹
    2022, 43(6):  143-155.  doi:10.11959/j.issn.1000-436x.2022098
    摘要 ( 357 )   在线阅读 ( 47 )   PDF下载 (1421KB) ( 500 )   可视化   
    数据和表 | 参考文献 | 相关文章

    目的:随着多模态网络等新型网络结构的出现和发展,对于网络资源容量的需求也日趋多样化。调整网络切片上承载的虚拟网络功能(VNF)的分布,进行按需、动态、高效的资源容量匹配十分困难。本文利用数据驱动的VNF资源容量预测方法,探索网络切片上承载VNF的预部署。

    方法:利用数据驱动的思想,采用一种基于时空特征提取的VNF资源容量预测方法,通过资源容量预测为即将到来的网络切片需求进行VNF的预部署。首先,对用于预测的数据流时间序列进行两段加权处理,然后把处理后的时间序列及其依赖的空间拓扑信息输入网络模型中,进行时空特征提取。对于空间特征的提取,通过给定一个邻接矩阵和一个特征矩阵,利用图卷积网络在傅里叶域中重组时间序列的空间分布特征。对于时间特征的提取,经由门控循环单元,通过单元之间的信息传递感知输入数据的时序依赖关系。然后,基于数据流序列与VNF实例数量的映射关系,由前馈神经网络进行数据维度转换并最终输出VNF资源需求预测视图。

    结果:从实验结果可以看出,该方法具有的预测性能主要体现在以下几个方面:①该方法的预测精度稳定。首要原因在于该方法在结构上采用了合理的时空特征提取结构,该结构能够有效地同时处理具有非欧几里得特征的空间结构和具有前后依赖性的时间序列特征。次要原因在于该方法对于输入数据流序列进行加权处理的预处理过程有效规避了网络中突发流带来的特征突变,能够真实的反映数据流以及切片容量需求的变化趋势,因而获得了稳定的预测效果。②该方法具有时空预测能力。说明在经过大量数据训练后,该方法的空间特征提取层能够迅速对网络的拓扑关系和数据流分布进行计算,时间特征提取层则能够根据节点间数据流之间潜在的相关性辅助预判数据流可能出现的突然变化,两个特征提取层协调运转,获得准确的时空预测结果。③该方法具有数据流预测结果转换能力。说明该方法通过结合数据流波动趋势与VNF实例数量变化趋势之间的映射关系,通过数据维度的转换,高效地实现了数据流预测与网络切片资源容量预测的转化。

    结论:多模态网络借助人工智能技术的蓬勃发展,为切片上的虚拟节点赋予计算、存储和传输能力,已经能够在自主感知数据吞吐和自主预测节点VNF的资源需求的基础上,通过业务需求数据的自适应流动,实现网络资源与用户需求的按需匹配。本文借助机器学习算法提出的用于多种模态网络场景中VNF资源容量需求预测方法VNFPre,可以判断网络切片在未来的VNF资源容量需求,为网络切片承载的VNF的放置和映射提供先验信息。

    认知异构蜂窝网络中改进蜉蝣算法的资源分配策略
    张达敏, 王义, 邹诚诚, 赵沛雯, 张琳娜
    2022, 43(6):  156-167.  doi:10.11959/j.issn.1000-436x.2022115
    摘要 ( 322 )   在线阅读 ( 27 )   PDF下载 (957KB) ( 407 )   可视化   
    数据和表 | 参考文献 | 相关文章

    针对认知异构蜂窝网络中上行链路资源分配的优化问题,提出认知异构蜂窝网络中改进离散蜉蝣算法的资源分配算法。认知异构蜂窝网络模型中,考虑用户层间干扰和带外干扰引入功率控制策略控制发射功率来干扰抑制,基于用户服务质量(QoS)需求和干扰阈值约束,最大化能量效率为优化目标,利用改进离散蜉蝣算法优化求解得出最优分配方案。引入不完全Gamma和Beta分布函数的动态自适应权重、黄金正弦位置更新策略,提升蜉蝣算法的收敛速度和搜索能力。仿真实验表明,基于接收SINR的闭环功率控制动态调整用户端的发射功率,能有效抑制用户间的干扰,GSWBMA 求解资源分配问题具有良好的寻优效率和收敛性能,有效提升系统能量效率和用户传输速率,保证用户QoS需求。

    基于区块链且支持数据共享的密文策略隐藏访问控制方案
    杜瑞忠, 张添赫, 石朋亮
    2022, 43(6):  168-178.  doi:10.11959/j.issn.1000-436x.2022119
    摘要 ( 484 )   在线阅读 ( 91 )   PDF下载 (1130KB) ( 587 )   可视化   
    数据和表 | 参考文献 | 相关文章

    目的:传统的属性基加密方案虽然实现了一对多的访问控制,但仍存在单点故障、效率低下、不支持数据共享以及隐私泄露等挑战。为了解决这些问题,提出了一种基于区块链且支持数据共享的密文策略隐藏访问控制方案。

    方法:首先使用向量压缩技术提出了一种高效的属性向量和策略向量生成算法,通过属性向量和策略向量的内积运算结果来判断用户属性是否满足访问策略。之后利用素数阶双线性群和属性加密技术,实现细粒度访问控制的同时避免了用户属性值的泄露;利用星际文件系统存储密文并通过智能合约将密文的哈希地址存储在区块链上,实现分布式且可信赖的访问控制的同时降低了区块链的存储开销;通过撤销合约维护撤销列表的方式实现了撤销功能,避免了用户私钥滥用的问题,最后结合代理重加密技术实现了数据共享。

    结果:对方案进行了安全性分析和仿真实验结果分析。首先,基于非对称决策双线性假设,证明了方案在访问控制阶段以及数据共享阶段的密文不可区分性,其次将本文方案与近几年一些所用技术相近的访问控制方案分别从群的阶、访问结构、策略隐藏等方面进行了功能特性对比,从对比结果可以看出,本文方案在功能特性上有一定的优势,之后评估了在区块链上部署合约以及执行相关函数的花费,结果表明本文方案的gas花费均在合理范围之内,最后仿真实验结果表明本文方案在访问控制阶段以及数据共享阶段都具有较高的效率。根据现有论文对比实验的设计,我们将属性个数设置为0-20个。在访问控制阶段,分别从初始化时间、密钥生成时间、加密时间、解密时间与其他方案进行对比分析,结果显示,本文方案虽然在初始化阶段的计算开销较大,但是在密钥生成阶段、加密阶段、解密阶段的效率均高于其他三个方案,因此本文方案在访问控制阶段具有较高的效率。在数据共享阶段,分别从重加密时间以及重解密时间与其他方案进行对比分析,结果表明,本文方案在重加密阶段和重解密阶段都具有较高的效率。本文方案在解密阶段和重解密阶段具有恒定的配对次数,因此解密时间和重解密时间较小并且随着属性个数的增加变化不明显。

    结论:本文构建的基于区块链且支持数据共享的密文策略隐藏访问控制方案解决了传统属性基加密方案中存在的单点故障、效率低下、不支持数据共享以及隐私泄露等问题。首先本文提出的属性向量和策略向量生成算法不仅支持正负号与门访问结构,而且通过拓展可以支持多属性值与门访问结构。其次利用以太坊和星际文件系统实现了密文的分布式管理,之后使用素数阶双线性群提高了双线性对的配对效率并通过结合代理重加密技术实现了数据共享。

    基于时延线阵列的毫米波NOMA系统混合预编码设计和功率分配
    孙钢灿, 吴新李, 郝万明, 朱政宇
    2022, 43(6):  179-188.  doi:10.11959/j.issn.1000-436x.2022120
    摘要 ( 204 )   在线阅读 ( 19 )   PDF下载 (926KB) ( 390 )   可视化   
    数据和表 | 参考文献 | 相关文章

    目的:传统毫米波非正交多址系统中天线结构是基于高分辨率高能耗的移相器调制网络,如何降低系统能量消耗同时提高分辨率是需要解决的关键问题之一。本文将由开关和时延线组成的、可进行连续相位调制的低复杂度、低功耗的时延线阵列引入到毫米波非正交多址接入(NOMA)系统,研究了系统的能效和谱效。

    方法:为降低用户间的干扰,提出改进K-means算法对用户进行分组,并为每组用户选择一个簇头,该算法将用户信道作为依据尽可能最大化同一簇用户信道相关性,降低不同簇用户间的相关性;然后根据簇头集合组成的相关用户信道矩阵,设计了一种低复杂度模拟预编码以最大化发射天线阵列增益,之后采用迫零技术设计数字预编码以消除波束间等效信道增益最大的用户间干扰;最后形成一个在用户服务质量和系统发射总功率约束下优化发送功率的能效最大化问题,针对所形成的非凸优化问题,提出一种两层迭代算法。具体来说,在外层应用Dinkelbach方法将能效优化中目标函数的分式结构转化为相减结构,在内层利用数学工具将非凸的目标函数转化为凸函数,然后提出一种基于交替优化(AO,alternating optimization)的迭代算法进行功率分配求解,最后通过内外两层循环迭代获得最初问题的解。

    结果:仿真分析:(1)从图6(a)可以发现,所提方案下全连接和子连接混合预编码结构的系统谱效均高于传统基于移相器调制网络下全连接和子连接混合预编码结构的系统谱效;此外,在图6(a)中还可以看出,所提方案下全连接结构的系统频谱效率优于混合连接和子连接结构。(2)从图6(b)可以发现,所提方案下系统的能效也均优于传统基于移相器网络和全数字预编码结构的系统能效;同时,在图6(b)中还可以看出,所提方案下子连接结构的系统能效优于混合连接和全连接结构。(3)从图7(a))中可以发现,系统的谱效随着天线数的增加而增加;而从图7(b)可以发现,系统的能效随着天线数的增加而降低。(4)从图8(a)和(b)中可以发现,与基于时延线阵列的毫米波正交多址接入(OMA)系统相比,所提NOMA方案在能效和谱效方面均可以获得更优的性能。(5)所提出的改进K-means用户分组算法性能是优于K-means用户分组算法。K-means算法虽然可以根据信道的状态信息较好地完成用户分组,但其初始簇头的随机性将会影响算法收敛性和系统性能。另外,随机分组算法的性能最差,这是因为NOMA系统存在用户干扰,而随机分组将会使得同一簇内的用户干扰增大。

    结论:时延线阵列是由的低功耗、低复杂度的开关和延迟线组成,通过调节开关可以实现连续相位调制。与基于时延线阵列的毫米波OMA系统和传统基于移相器的毫米波NOMA系统相比,本文构建的基于时延线阵列的毫米波NOMA系统可以有效的提高系统的谱效和能效。

    基于强化学习的多层卫星网络边缘安全决策方法
    左珮良, 侯少龙, 郭超, 蒋华, 王文博
    2022, 43(6):  189-199.  doi:10.11959/j.issn.1000-436x.2022111
    摘要 ( 319 )   在线阅读 ( 45 )   PDF下载 (1821KB) ( 520 )   可视化   
    数据和表 | 参考文献 | 相关文章

    目的:多层卫星网络是空天地一体化技术的重要组成,本文旨在依靠卫星节点的自主判决能力,发挥网络边缘场景中针对感知数据包含加解密和压缩在内的处理以及回传方面的任务协作能力。以确保数据安全为前提,以低传输时延为目标,实现任务卫星在多层卫星网络架构中的边缘决策。

    方法:本文考虑了由低轨卫星、中轨卫星以及高轨地球同步轨道卫星组成的多层卫星网络。其中,低轨卫星节点负责观测侦察业务(如气象观测、地理侦测、情报侦察等),中轨卫星视为边缘场景中的雾节点,并由其中一颗担任雾运算处理中心,负责规划观测数据的压缩处理和安全加密所在卫星节点以及数据回传的网络选择,地球同步轨道卫星则具备最大的覆盖范围和最强的运算处理能力。本文使用深度强化学习算法实现卫星网络的边缘安全决策。具体来说,边缘中心节点通过感知系统获得卫星网络的环境状态,在此基础上利用深度强化学习算法自主学习的能力,拟合得到场景下最优的数据卸载策略,获得最优的链路规划,使得星上资源得到充分利用,从而达到众多观测任务的平均回传时延达最小的目的。首先,边缘中心节点对环境进行观察,获取环境中观测卫星任务数据量大小、信道条件、边缘节点处理能力等状态要素,在此基础上通过深度Q网络完成状态到动作的映射,实现初步的策略选择;策略作用于卫星网络,会改变环境的状态,同时环境对策略作出评价,以奖励的形式反馈给边缘中心节点;边缘中心节点基于新的环境状态和收益,进行误差计算和Q值的更新,以此来优化动作选择策略,从而获得更高的奖励收益以及新的环境状态;上述过程不断迭代最终获得最优策略。

    结果:采用Keras作为仿真平台,并在仿真实验中,假定低轨卫星的星座为常见的Walker星座。以多层卫星网络中的某一区域作为仿真对象,设定该区域低轨观测卫星数量为8颗,中轨卫星数量为3颗,高轨卫星数量为一颗。本文的仿真结果包含三个方面:1)对不同卫星数量情况下各方法针对随机快照的收敛性能进行仿真。仿真结果表明,所提方法针对不同卫星数量的情况均表现出了收敛趋势,随着卫星数量的增加,所提方法达到收敛所需要的训练次数明显增加,这是由于卫星数量的增加大幅提升了方法动作空间的大小;2)对所提方法在不同网络构型条件下的性能进行了对比。仿真结果表明,所提方法在所有4种不同构型条件下均具有最好的收敛性能,然而在部分快照下,低-高网络构型的起始性能非常优异,但随着训练的进行,其收敛性能变得较差,这是由于该网络构型的链路选择较少,这限制了其性能;3)采用测试集对所提方法与对比方法的性能进行仿真验证。仿真结果表明,相较于随机边缘安全决策和由信噪比参数为导向的边缘安全决策,本文所提方法在时延性能上具有较大的优势,且与遍历得到的最优边缘安全决策性能相差较小。

    结论:本文针对场景中为低轨观测卫星进行多层卫星节点的链路选择问题,提出一种基于深度强化学习的数据压缩与加密回传决策方法。通过结合场景合理地设计方法的状态、动作、奖励以及训练网络等相关参数,所提方法能够以低传输时延为目标进行智能高效的边缘决策。

    基于MeanShift的短波跳频信号快速盲检测
    朱政宇, 林宇, 王梓晅, 巩克现, 陈鹏飞, 王忠勇, 梁静
    2022, 43(6):  200-210.  doi:10.11959/j.issn.1000-436x.2022118
    摘要 ( 223 )   在线阅读 ( 18 )   PDF下载 (970KB) ( 291 )   可视化   
    数据和表 | 参考文献 | 相关文章

    在复杂的短波信道环境下,为了降低各种干扰信号和噪声对跳频信号的影响,实现低信噪比下跳频信号盲检测,结合时频分析技术,提出一种基于 MeanShift 算法的连通域标记跳频信号快速盲检测算法。首先,对信道环境灰度时频图进行二次灰度形态学滤波得到二值化时频图。其次,通过连通域标记算法,计算信号最大持续时长。再次,利用 MeanShift 算法对信号最大持续时长进行聚类分析。最后,结合自适应双门限对聚类结果进行二次判决。仿真结果表明,在无任何先验信息的情况下,所提算法能够在低信噪比下快速分离各种干扰信号与尖锐噪声,实现跳频信号快速盲检测,检测概率较高,在短波信道环境下抗干扰能力较强,计算复杂度较低,具有较高的工程实用价值。

    综述
    论涡旋电磁波轨道角动量传输新维度
    张超, 王元赫
    2022, 43(6):  211-222.  doi:10.11959/j.issn.1000-436x.2022087
    摘要 ( 352 )   在线阅读 ( 29 )   PDF下载 (1568KB) ( 479 )   可视化   
    数据和表 | 参考文献 | 相关文章

    目的:作为未来移动通信中潜在核心关键技术的涡旋电磁波轨道角动量(OAM)传输技术,易与传统基于多天线的多输入多输出(MIMO)传输技术相混淆,从而引发关于涡旋电磁波OAM是否在无线传输中提供新维度的争议。本文明确了只有电磁波量子携带内禀OAM的涡旋电磁波传输系统才可以获得OAM新维度;统计态OAM涡旋波束中的电磁波量子形成的外部OAM与空域维度相耦合,无法构成MIMO传输以外新维度。

    方法:本文从电磁波资源利用和发展的历史出发,分析电磁波OAM的物理特征,给出了含有OAM维度的香农信道容量公式,指明了无线传输中OAM新维度的功率复用对容量提升的意义。为了进一步体现OAM新维度特性,依据信道容量的不同,将涡旋电磁波OAM传输系统划分为四个典型信道容量区域。以微波频段为例,指出了只有基于涡旋微波量子的量子态OAM涡旋电磁波传输可以超越传统多天线MIMO容量界,并形成含有OAM维度的新MIMO容量界。

    结果:为了说明量子态OAM涡旋电磁波和统计态OAM涡旋电磁波束的应用范围和突出优点,本文对典型OAM传输系统按信道容量由高到低划分为A至D四个区域。其中,区域A属于具有物理新维度的量子态OAM传输系统,采用涡旋微波量子传输信息,其容量界相比于传统多天线MIMO容量界获得提升;区域B、C和D属于统计态OAM涡旋波束,虽然不具备新维度,但在视距直射(LoS)信道中有突出表现。与传统视距MIMO传输相比,区域B为OAM专用天线传输系统,可恢复信道正交性和信道矩阵的秩,获得容量大幅提升,代表着统计态OAM涡旋波束使用的发展趋势;区域C为阵列天线全相位面传输系统,系统复杂度低,且作为早期OAM技术代表,技术成熟度较高;区域D为部分相位传输系统,不需要接收完整相位面,适用于长距离传输。

    结论:针对学术界中电磁波OAM是否为无线传输系统提供新维度的争议,本文从电磁波的利用历史出发,分析了电磁波OAM传输机理,并指出:无论是内禀OAM还是外部OAM,都是电磁波可以利用的新物理量,但只有基于内禀OAM的量子态OAM涡旋微波量子传输可以在无线传输中产生新维度;基于外部OAM的统计态OAM涡旋波束则无法构成MIMO传输以外的新维度,只能算作具有螺旋相位面波束赋形能力的多天线MIMO传输系统特例。

    学术通信
    车联网云边协同计算场景下的多目标优化卸载决策
    朱思峰, 蔡江昊, 柴争义, 孙恩林
    2022, 43(6):  223-234.  doi:10.11959/j.issn.1000-436x.2022114
    摘要 ( 531 )   在线阅读 ( 71 )   PDF下载 (1705KB) ( 592 )   可视化   
    数据和表 | 参考文献 | 相关文章

    目的:车联网场景下的计算任务对时延非常敏感,需要云边协同计算来满足这类需求。而车联网场景下车辆快速移动的特点使得常规的云边协同模型无法适用。本文结合车联网场景特有的车对车通信技术和边缘缓存技术,探索适用于车联网场景的云边协同计算卸载模型。

    方法:针对车联网云边协同计算场景下如何高效地进行服务卸载并同时考虑服务的卸载决策以及边缘服务器和云服务器的协同资源分配问题,设计了基于云边协同的车辆计算网络架构,在该架构下,车载终端、云服务器和边缘服务器都可以提供计算服务;通过对缓存任务进行分类并将缓存策略引入车联网场景,依次设计了缓存模型、时延模型、能耗模型、服务质量模型以及多目标优化问题模型,将任务最大卸载时延引入服务质量模型;给出了一种基于改进的多目标优化免疫算法(MOIA)的卸载决策方案,该算法是一种多目标演化类算法,主要通过结合免疫思想和参考点策略实现对多目标问题的优化。

    结果:最后,通过对比实验验证了所提卸载决策方案的有效性。实验结果表明,在满足最大卸载时延情况下本文提出的计算卸载模型能够应对不同需求的任务,具有较好的适应性。本文设计模型中卸载时延主要由七部分组成:任务下载服务应用所需的缓存时延、任务从车辆上传到边缘服务器的上传时延、任务从边缘服务器上传到云服务器的上传时延、任务所需的执行时延、任务在服务器端所需的排队时延、任务通过服务器进行跨区域传输所需的传输时延和任务通过基于车对车通信技术进行传输所需的传输时延。在对通信策略和缓存策略的实验中,可以看出本文中各部分时延有较为紧密的关联关系。对缓存策略效果的实验是通过取消一半可缓存的边缘缓存服务应用实现(MOIA-C),结果表明MOIA-C方案的卸载总时延和缓存时延较MOIA方案分别增加了35.88%和196.85%,这是由于可缓存服务应用数量的降低,卸载方案更倾向于将任务卸载到具有全部服务应用且性能更高的云服务器上,导致任务从边缘服务器上传到云服务器的上传时延和排队时延有所增长、执行时延有所降低,系统能量消耗下降,服务质量指标增加。通信策略采用基于服务器和基于车对车通信技术的混合传输方式,对通信策略的实验是通过取消基于车对车技术的通信方式实现(MOIA-S),结果表明MOIA-S方案的卸载总时延和通信总时延较MOIA方案分别增加了58.45%和433.33%,这是由于单独使用服务器进行任务传输会带来极大的带宽压力,为降低任务跨区域传输所带来的带宽压力,卸载方案更倾向于将任务卸载到云服务器执行,导致服务应用的缓存时延和任务的处理时延有所下降,而排队时延有所上升,系统能量消耗下降,服务质量指标增加。

    结论:本文基于边缘缓存技术和车联网场景特有的车对车通信技术提出了一种自适应的服务缓存和任务卸载策略,在保证服务质量的基础上有效降低了车载任务的卸载总时延和车辆的能量消耗,可为车联网场景具有高时延敏感性任务提供了更为优质的服务。

    高阶最优LPC根值筛选的共振峰估计算法研究
    龙华, 苏树盟
    2022, 43(6):  235-245.  doi:10.11959/j.issn.1000-436x.2022113
    摘要 ( 370 )   在线阅读 ( 9 )   PDF下载 (28324KB) ( 85 )   可视化   
    数据和表 | 参考文献 | 相关文章

    目的:现有的线性预测(LP)共振峰估计算法存在伪根干扰与极点交互,精确定位共振峰十分困难。LP预测共振峰的低阶拟合从根本上限制了共振峰提取的精度,为解决LP共振峰检测误差较大的问题,针对LP提取共振峰中伪根难以去除及极点交互带来的频谱混叠,提出一种基于高阶最优LP系数根值筛选的共振峰估计算法,探究算法中不同阶次下语音数字共振模型约束的根判定阈值、最优LP根值分布、频谱包络中的共振峰峰值分布及共振峰估计误差。

    方法:考虑增大LP阶次的取值,提高LP系统频谱对语音信号的拟合程度,在不同阶次下分析语音信号共振峰频率的计算精度,获取含有更高线性峰值拟合精度的线性系统根值。采用语音数字共振模型约束共振峰的根幅值范围,通过匹配阶次的根幅值来筛选线性系统根值的方法来减少伪根数,滤除非共振峰频率值对应的伪根,消除频谱混叠。结合功率加权来加重信号的主要频谱成分,修正语音频率幅值,增强语音信号谱峰与LPC谱峰能量的匹配性,拉大极点间距离,降低谐波产生干扰带来的预测误差,提高频谱峰值频率区分度。

    结果:从算法结构可看出,先对语音信号做预处理,预加重削减低频信息以降低基频对共振峰检测的干扰,并且增强高频以增加高频谱线中第三共振峰的幅值区分度,端点检测隔离无话段对有话帧做数字共振模型约束下的高阶LP分析。模型包含三个主要技术对性能的提升:(1)在系统容限范围内,提升LP阶次提高共振峰预测精度。共振峰是频谱包络的峰值频率且对应LP多项式的零极点,9阶线性预测仅保留了语音信号LP响应幅度谱的基本形状,LP阶次提高至15阶时,LP增大了信号的拟合度,LP零极点数目更多且分布更加靠近单位圆,15阶LP补偿了9阶线性拟合带来的共振峰拟合精度的牺牲,共振峰提取精度提升2.5%。(2)采用数字共振根值约束下的阈值判定根,有效滤除基频谐波产生的低频伪根及共振峰谐波产生的伪根。LP多项式的零极点是共振峰峰值对应的复数根,从共振峰检测根值分布来看,数字共振根值约束下的高阶LP根阈值有效滤除声道谐波作用产生的伪根,准确定位出共振峰峰值对应的根在单位圆的位置。(3)对语音在频率上做功率加权,修正后的信号预测共振峰更加精确。功率加权后的信号频谱包络能量更集中,18阶时,共振峰峰值频率1363Hz对1359Hz的混叠干扰被消除。在算法稳健性及不同方法整体性能比较上,本文算法在9阶到22阶均可稳健提取共振峰,且模型算法提取共振峰在18阶时表现出最优的性能。

    结论:本文对基于LPC共振峰检测的方法做出改进,研究提高线性预测阶次对提取共振峰的影响,针对提高线性预测阶次带来的多伪根以及多极点交互的问题,最小化语音数字共振模型约束共振峰提取误差。分析线性预测阶次与根幅值筛选阈值的关系,采用数字共振约束下的根幅值反馈的方式获取匹配高阶次的低误差率筛选阈值来去除伪根,并且结合功率加权突出频谱峰值的幅值,消除共振峰提取过程中的极点交互,实现精准有效的共振峰提取。

版权信息
主管单位:中国科学技术协会
主办单位:中国通信学会
主  编:张 平
副主编:张延川 马建峰 杨   震
     沈连丰 陶小峰 刘华鲁
编辑部主任:吴娜达 肇丽
地  址:北京市丰台区东铁匠营街道
     顺八条1号院B座“北阳晨光
     大厦”2层
邮政编码:100079
电  话:010-53878169、53859522、
     53878236
电子邮件:xuebao@ptpress.com.cn
     txxb@bjxintong.com.cn
国际标准刊号:ISSN 1000-436X
国内统一刊号:CN 11-2102/TN
访问统计
总访问量
今日访问
在线人数