一种网络并行环境的需求规范语言

一种网络并行环境的需求规范语言

一、一个面向网络并行环境的需求规约语言(论文文献综述)

周文博[1](2021)在《云计算系统的形式化建模与验证方法研究》文中研究指明随着科学技术和服务模式的不断发展,云计算作为一种创新的计算范式,在资源管理、市场运作和社会服务中得到了广泛的应用。基于互联网和虚拟化技术,云计算能够按需地为用户提供可度量的基础设施、平台和软件等服务。云计算系统是一类典型的复杂系统,具有规模大、层次多、架构复杂等特点,其可靠性和安全性往往难以保障。如何对云计算系统进行合理的抽象与建模,并进一步进行形式化验证,以增强系统的可信性和可靠性,是亟待解决的重要问题。本文利用形式化方法对构建安全可靠的云计算系统问题进行研究,在一种云计算系统框架下,结合形式语义、时间自动机和着色Petri网对其重要组成部分进行了形式化建模、分析与验证。本文关注的云计算系统主要包括数据处理框架、数据存储系统和资源服务系统。其中,数据处理框架定义了数据的处理逻辑,数据存储系统提供了数据的读、写和备份功能,资源服务系统保障了相关资源的供给。本文分别对这3个部分的建模与验证方法进行了研究,并在云存储案例的支持下,提出了一种攻击容错框架以进一步增强系统的安全性。本文的主要研究贡献包括以下几点:(1)针对云计算系统中的数据处理框架语义问题,提出了一种用于分析云中数据处理框架的执行语义模型SDAC。鉴于形式语义能够对计算过程进行严格、规范地描述,有助于程序或系统的正确性证明与分析,本文结合形式语义学基本理论定义了分布式抽象格局和执行语义,与典型的Aeolus模型进行了格局比较,并通过Map Reduce实例描述、容错与性能优化分析说明了模型的合理性与有效性。(2)针对云计算系统中数据存储系统的建模与验证问题,提出了一种用于分析具有备份流水线的主从式云数据存储系统的模型MSCDSS-RP。由于着色Petri网(Coloured Petri Net,CPN)适用于并发系统的建模与验证,能够通过类型化的令牌及其转移对并发读写和消息传递进行准确地刻画,本文基于着色Petri网对客户端、元服务器和集群之间的读写过程进行建模,并利用CPN Tools工具分析了状态空间,验证了备份一致性等重要性质。(3)针对云计算系统中资源供给服务的建模与验证问题,提出了一种资源供给即服务的建模与验证方法。鉴于时间自动机在状态和时间描述方面具有良好的表达能力,适用于刻画服务流程相关的状态同步和时间控制,本文基于时间自动机给出了资源供给即服务的框架及参与者行为,构建了客户端、服务管理中心(包括分配器、终止监控器和时间监控器)和资源服务模型,并利用时间自动机工具UPPAAL在相关服务场景下对一致性性质进行了验证。(4)针对云计算系统的攻击容错问题,提出了一种基于着色Petri网的攻击容错框架。鉴于着色Petri网在表达方式上既具有严格的数学基础,又具有直观的可视化图形表示,适合于异步、并发过程的诊断与分析,本文基于着色Petri网的形式化构造对攻击-网络交互行为的基本模式、攻击检测器和容错方案进行抽象与建模,根据攻击检测器识别的信息,对基本容错方案进行组合,通过基于云的医疗信息存储系统的案例分析,说明方法的可用性和有效性。综上所述,本文对云计算系统中的数据处理框架、数据存储系统、资源服务系统和攻击容错机制等进行了较为系统地研究,结合形式语义、时间自动机和着色Petri网等多种形式化理论和工具探讨了系统语义、过程建模和性质验证方法。本文工作可以为将形式化方法应用于云计算系统提供一定的参考,促进利用形式化手段增强复杂系统的可信性、可靠性和安全性的相关研究。

周翔宇[2](2020)在《面向自主船舶的危险分析方法研究》文中提出继蒸汽技术革命、电力技术革命、计算机及信息技术革命之后,以人工智能、物联网、云计算、虚拟现实、量子信息技术等为代表的第四次工业革命正在改变世界。信息和通信技术的进步、信息分析能力的提高为各行各业创造了革命性的发展机会,在航运业中,以更为安全、高效、绿色的方式运载货物和乘客的自主船舶正受到前所未有的关注,并已成为航运业未来的发展方向。作为航运业数字化转型和新技术革新的代表,相较于仅由人工控制的常规船舶,自主船舶将在总体设计结构、系统交互方式、动力驱动来源等方面发生颠覆性的变化,同时,随着船岸间、船舶各子系统间的互联互通,自主船舶将成为现代航运生态体系中的传感器中枢和数据生成器。在此背景下,为避免由于自主船舶的引入对当前海上交通状况可能造成的负面影响,并确保自主船舶的预期安全水平至少不低于常规船舶的现有安全水平,不仅需要关注包括航行安全、货物安全在内的传统安全,还需要考虑以网络安全为代表的非传统安全。因此,针对自主船舶的安全性开展理论研究是十分必要且具有重要意义的。本文围绕自主船舶的安全性,以危险分析方法为研究对象,在明确自主船舶运行特点的基础上,提出了一种适用于自主船舶的安全性协同分析方法。以远程控制船舶为例,使用所提出的方法对其进行了危险分析,并利用模型检测工具UPPAAL验证了危险分析结果的正确性。本文的主要研究工作及成果如下。(1)自主船舶的定义及自主水平分级方法研究。从自主船舶的历史沿革和发展历程入手,在明确自主船舶的定义及其中英文表述的基础上,分析了现有自主水平分级标准存在的局限性,并提出了一种基于航海实践的自主水平分级方法。研究结果表明,划分自主水平的关键在于能否独立于人的干预完成相应的任务或实现相应的功能,而非取决于船舶自动化水平和/或决策地点。以2艘搭载自主航行技术的测试船舶为例,相较于现有自主水平分级标准,所提出的自主水平分级方法有效避免了由于单一功能的自主实现导致船舶整体自主水平认定不准确的弊端,得出的分级结果更符合客观事实。(2)危险分析方法的适用性研究。为筛选出一种或多种能够捕获自主船舶运行特点的危险分析方法,面向自主船舶提出了一种基于系统工程的适用性评估方法。该方法依据制定的适用性评估程序,生成了以功能方式描述的系统级安全需求和与自主船舶设计目标相联系的评估准则。适用性评估过程面向29种广泛使用的危险分析方法展开,结果表明,系统理论过程分析(System-Theoretic Process Analysis,STPA)方法满足了所有的评估准则,其能够更好地理解系统行为、识别危险,并揭示危险致因因素,是目前适用于自主船舶的、最具潜力和发展前途的危险分析方法之一。(3)面向自主船舶的安全性协同分析方法研究。在明确自主船舶运行特点的基础上,考虑到日益增加的网络威胁对自主船舶系统安全性的负面影响,提出了一种基于STPA 的安全性协同分析方法,即 STPA-SynSS(STPA-based analysis methodology that Synthesizes Safety and Security)。该方法在STPA的基础上提出了 6项改进,并提供了一个识别危险并揭示危险致因因素的综合过程,有效实现了对潜在危险的持续跟踪和闭环管理。以远程控制船舶的避碰场景为例,使用所提出的方法对该场景进行了详细的危险分析,并生成了具体的危险控制策略。危险分析结果的对比分析表明,相较于STPA,STPA-SynSS能够识别出更多的不安全控制行为和损失场景,同时,能够生成更具针对性的危险控制策略,证明了该方法的有效性和先进性。(4)考虑退化组件的自主船舶安全性建模研究。使用STPA-SynSS生成损失场景时,需要考虑因组件性能退化导致的不安全控制行为。为表征自主船舶的系统安全性状态随时间退化的特性,将系统安全性分析由“二态假设”扩展为多状态。根据STPA-SynSS实例分析中构建的控制结构,对远程控制船舶的安全性进行建模,构建了服从指数分布的安全性函数和描述系统达到安全性极限状态的时间分布函数。该模型可用于指导设计人员将更有针对性的安全性设计纳入到系统中,并面向退化组件建立相应的保护机制,以避免危险从潜在状态向可能导致损失的现实事故状态转移。(5)自主船舶的形式化建模与危险分析结果验证研究。为克服危险分析结果的正确性和完整性无法得到验证的限制,创新性地将形式化方法引入危险分析过程,提出了一种基于时间自动机的STPA-SynSS扩展流程。在构建时间自动机网络模型的基础上,通过利用模型检测工具UPPAAL对系统模型的有穷状态空间进行穷尽搜索,以检验语义模型与其性质规约间的满足关系,从而验证系统建模的活性和危险分析结果的正确性。验证结果表明,远程控制船舶时间自动机网络模型无死锁且运行正确,STPA-SynSS识别的不安全控制行为均会发生,即验证了 STPA-SynSS危险分析结果的正确性,同时,证明了所提出的STPA-SynSS扩展流程的有效性。本文的研究结论为识别、控制自主船舶的潜在危险奠定了较为坚实的理论基础,在一定程度上满足了航运业对于明确并提高自主船舶安全性的迫切需求。同时,可为自主船舶的安全性设计提供参考,有力保障自主船舶的安全运营。

朱光辉[3](2020)在《分布式与自动化大数据智能分析算法与编程计算平台》文中研究说明与传统小规模数据场景下的智能化分析应用不同,大数据场景下的智能化分析应用,不再是单一的单机AI算法模型问题,而是大数据、大模型、大计算的融合,需要同时考虑算法模型设计、大数据处理以及高效的分布并行计算问题,这对大数据智能分析基础理论方法与关键技术研究,带来了一系列新的挑战和问题。首先,现实世界大规模数据场景下的复杂数据挖掘与机器学习,存在突出的计算效率问题。大数据动摇了传统计算复杂性理论和方法。在大数据场景下,传统的多项式复杂度算法难以完成大数据、大模型计算问题,因此,需要研究设计大规模数据场景下高效的分布式并行化方法与算法,以此提升大数据智能分析计算效率。然而,高效的分布式数据挖掘和机器学习方法与算法设计,面临一系列复杂的基础理论方法与关键技术问题,不仅需要考虑单机串行算法固有的计算复杂性,还需要考虑并研究解决在分布并行环境下,大数据分布式算法的可并行度、存储、I/O和网络通信等系统复杂性,以及分布式算法性能的深度优化问题。除了计算效率问题外,现有的大数据智能分析技术和平台还存在突出的易用性问题。一方面,现有大数据智能建模方法技术门槛高、大量依赖专家经验,为此,需要研究高效的自动化机器学习(Auto ML)建模方法,以此降低AI建模技术门槛,大幅提升AI建模效率。但Auto ML自动化机器学习面临着搜索与建模方法的有效性、搜索计算效率优化等诸多基础理论方法与难点技术问题。另一方面,如前所述,大数据场景下的智能化分析应用开发,不仅仅是算法模型设计问题,还是一个大数据和大计算问题,这就需要研究解决大数据智能化分析建模与分布并行计算系统交叉融合的关键技术问题,以此构建一个融算法模型设计与大数据编程计算能力于一体的统一大数据智能分析编程计算支撑平台。围绕以上关键科学问题,本文在大数据分布式数据挖掘与机器学习、自动化机器学习以及大数据编程计算方法等基础理论与方法研究基础上,结合算法本身的重要性和技术挑战性以及业界的实际应用需求背景,首先选取了一系列基础常用、复杂性高、计算效率问题突出、且分布式算法设计难度大的数据挖掘与机器学习算法,开展了高效大规模分布式并行化数据挖掘与机器学习方法与算法研究;其次,开展了面向不同任务场景的高效Auto ML自动化机器学习方法与算法研究;最后,在融合分布式数据挖掘与机器学习以及Auto ML自动化机器学习关键技术方法与算法的基础上,研究构建了高效易用的统一大数据智能分析编程计算方法与系统平台,并进行了实际应用验证。具体而言,本文工作包括以下主要研究内容和创新:(1)研究实现了基于属性重排序的大规模分布式函数依赖发现算法。函数依赖是数据挖掘中基础常用的数据结构,但是函数依赖发现任务计算复杂度与内存复杂度高,尤其在大规模数据场景下,算法运行时间和内存开销巨大。为此,本文研究提出了基于属性重排序的大规模分布式函数依赖发现算法Smart FD。在数据预处理阶段,研究提出了一种高效的基于倾斜度和基数的属性重排序方法;在函数依赖发现阶段,研究提出了一种基于快采样早聚合机制的分布式采样方法、基于索引的验证方法以及采样验证自适应切换方法。实验结果表明,与已有算法相比,Smart FD可以实现一到两个数量级的性能提升,且具有良好的数据可扩展性与系统可扩展性。(2)研究实现了基于分布式数据并行的大规模并行化谱聚类算法。谱聚类算法聚类效果优于传统聚类算法,但其存在计算流程复杂、计算复杂度高以及计算耗时长等问题,尤其在大规模数据场景下,计算效率问题更为突出。为此,本文研究提出了基于分布式数据并行模式的大规模并行化谱聚类算法SCo S,实现了谱聚类算法中相似度矩阵构建与稀疏过程并行化、Laplacian矩阵构建与正规化过程并行化、正规化Laplacian矩阵特征向量计算并行化以及k-means聚类并行化。实验结果表明,SCo S算法在大规模数据场景下表现出了良好的数据及系统可扩展性。(3)研究实现了基于子森林均匀划分的分布式任务并行深度森林训练方法与算法。近年来,研究人员提出了可与深度神经网络相媲美的深度森林模型。但已有的深度森林训练算法是单机串行的,计算效率低、可扩展性差,难以满足大数据场景下深度森林训练的应用需求。为此,本文研究提出了基于细粒度子森林均匀划分、任务并行的分布式深度森林训练方法与算法Forest Layer,在提升计算并发度的同时,优化和降低网络通信开销。另外,进一步实现了延迟扫描、预池化以及部分传输三种系统层优化方法。实验结果表明,与已有深度森林训练算法相比,Forest Layer能够实现7到20倍的加速比,并具有近线性的可扩展性及良好的负载均衡。(4)研究实现了面向不同任务场景的Auto ML大数据自动化机器学习方法与算法。首先,针对全流程化大数据分析场景,研究提出了基于强化学习和贝叶斯优化的机器学习流水线自动化设计算法Robo ML,实现交替的流水线结构自动搜索和超参数优化。针对资源受限场景,研究提出了一种基于自适应连续过滤的Auto ML算法BOASF,将Auto ML问题统一抽象为多臂赌博机问题,通过自适应快速过滤以及自适应资源分配等方法加速Auto ML搜索过程。最后,针对终生学习场景的概念漂移问题,研究提出了基于自适应加权集成学习的自动化终生学习算法Auto LLE,集成了全局增量模型和局部集成模型,并基于时间窗口和误差度量自适应调整各模型权重,有效捕捉概念漂移,大幅提高模型的准确性。(5)研究实现了高效的Auto DL大数据自动化深度学习方法与算法。为了提升深度神经网络超参数优化的计算效率,研究提出了一种结合渐进多保真度优化和Successive Halving优化的超参数优化方法Fast HO,通过尽早过滤掉表现较差的超参数配置,并为剩余超参数配置分配更多的资源,从而提升超参数优化的效率。其次,为了提升深度神经网络架构搜索效率,研究提出了基于最小化离散性能偏差的可微分架构搜索算法MGDARTS,通过设计更容易饱和的权重函数以及对超网络每条边的权重之和做整体性约束,尽量减少超网络离散化后的性能损失。实验结果表明,所提出的算法优于现有算法的性能。(6)研究实现了高效易用的统一大数据智能分析编程计算方法与平台。为了有效支持大数据智能化分析应用的开发,在融合上述分布式数据挖掘与机器学习以及Auto ML自动化机器学习关键技术方法与算法的基础上,研究设计并实现了一个支持多计算模式、高效易用的跨平台统一大数据智能分析编程模型与计算平台。首先研究提出了覆盖表模型、矩阵模型、张量模型、图模型、流式数据模型等多种计算模型的跨平台统一大数据智能分析编程计算模型。在此基础上,研究设计了基于计算流图的大数据智能分析编程方法。其次,研究实现了统一大数据智能分析平台集成框架以及跨平台统一的作业调度方法。最后,基于统一大数据智能分析与可视化编程系统平台,进行了实际的应用验证。本文工作发表第一作者研究论文7篇(其中CCF A类期刊/会议论文2篇,B类期刊/会议2篇,中文CCF A类期刊论文1篇)。此外,在Auto ML自动化机器学习方面的研究工作,在Neur IPS、KDD、PAKDD等国际顶级人工智能会议上举办的Auto ML大赛中,共计荣获9项大奖,并在教育部主办的第五届中国“互联网+”大学生创新创业大赛中,荣获全国金奖。另外,大规模分布式数据挖掘与机器学习以及Auto ML自动化机器学习等相关技术研究成果已转让给国内华为、360等多个大型IT企业落地应用。

唐佩佳[4](2020)在《基于标记的跨平台并行编程框架设计与实现》文中进行了进一步梳理随着并行计算技术的发展和普及,业界存有大量的串行应用程序需要迫切改造为并行程序,来提高数据处理能力。而串行程序并行化面临两个基本问题:(1)并行编程的高成本问题。并行编程需要专业的并行编程能力和丰富的工程经验,开发并行程序需要大量的工程成本和时间。(2)并行平台的多样性问题。随着各种并行硬件平台和并行编程模型数量的增加,并呈现出多样化,需要具备快速生成所需目标并行平台的并行程序的能力。针对上述两个问题,需要通过高效易用的并行编程框架来辅助并行编程。为此,本文设计并实现了一种基于标记语言的三层并行编程框架,主要的思路和方法是:(1)并行编程框架结构设计。设计了三层框架结构,分别是串行程序层、并行中间代码层、目标并行编程语言程序层。通过对串行代码进行语言标记来实现有并行语义的并行中间代码层,再对并行中间代码层进行代码解析来实现可执行的目标并行编程语言程序层,其中并行中间代码层实际是多种并行平台编程模型的一种抽象,与具体并行平台无关。(2)并行机制与标记语言设计。通过对多种并行编程模型(共享存储并行模型、分布式存储并行模型、多任务操作系统并行模型和GPU并行模型)下的数据并行任务进行抽象,建立了基于数据并行的标准任务模型,包括三个计算阶段:数据划分和分发、数据计算、数据收集和规约。设计了一套并行标记方法用于表达与平台无关的并行语义,来辅助并行编程框架进行代码解析,代码解析系统将带有标记的串行程序转化为用户指定平台的并行程序,实现串行程序跨平台并行化。(3)辅助支撑系统设计。设计了性能标记方法用于程序性能参数的自动寻优,这些寻优参数为线程数和进程数、任务负载量等,寻优系统提升了并行程序的性能。此外,还包括用户搭建跨平台并行计算环境和设置并行条件等。本文框架适用于多种软件平台(Windows、Linux、VxWorks)和硬件平台(X86和PowerPC)下的以计算为主的流数据处理任务。最后,将并行编程框架应用于某工程数据处理项目。项目应用反映了框架可以产生用户指定并行平台的并行程序,且计算结果与对应串行程序结果一致;并且评估了框架在共享存储平台和分布存储平台下产生的并行程序的性能,其加速比与人工编写的并行程序相当。

尹慧[5](2020)在《支持深度学习算子并行算法调优的ParaC编译器研究》文中研究说明近年来,深度学习广泛的应用在各个领域,为我们的生活和生产带了巨大的进步。但是深度学习是建立在庞大的训练数据和巨大的计算资源消耗之上的。而且,算法又是深度学习的核心,因此针对深度学习算法的加速显得尤为重要。随着NVIDIA等公司对GPU大规模并行架构的推进,GPU已成为深度学习优化的主流加速平台,但是由于GPU复杂的体系结构,基于GPU平台上的程序优化面临着优化困难、复杂且效率低的挑战。学术界与产业界研发了一些深度学习的编译优化框架,他们支持典型的算子、面向典型众核平台、并行优化和自动调优。但是现有工具依然存在很多解决不了的问题。本文针对深度学习算法,基于ParaC编译器,实现了可以对深度学习算法进行并行调优并生成GPU平台上高性能CUDA代码的编译器。对当前的ParaC语言进行扩展,支持复杂嵌套的循环结构与高于两维的矩阵类型;提高编译器的并行分析和优化能力,并提供生成CUDA代码的后端;设计实现开放的调优接口,提供了 OPI制导的方法,支持显式的优化策略调优;提供数据流优化的OPI制导与运行时函数,支持多语言混合编程中的数据流优化。本文选取典型的两个算法对ParaC编译器进行性能评估。首先,给出算法的ParaC写法,经OPI制导调优与编译器输出CUDA版本代码,最后比较ParaC生成版本与手工版优化版本、高性能算法库的性能。总的来说,ParaC版本与手工优化版本性能持平。桶排序在数组大小为1万到20万区间,性能高于Thrust算法库。对于Batch normalization算法,以resnet-50网络为例,128批次规模下,对于大图片性能超越公认的cuDNN算法库最快速的模式,小图片性能略低于算法库,但是可以寻求更好的并行优化策略。对于其产能,ParaC版本的代码行数远低于手工版CUDA,并且因为OPI制导提供了调优接口,大大的减少了开发人员调优的工作量。

林文杰[6](2020)在《基于最小生成树的高分辨率遥感影像层次化分割方法研究》文中进行了进一步梳理随着遥感传感器分辨率的不断提高以及高分辨率遥感卫星的不断发射,高分辨率遥感数据逐渐成为主流。在更精细的空间尺度下,高分辨率遥感影像呈现更丰富的地物细节信息,表现为信息内容的复杂性、空间性和海量性等特征,给传统遥感影像分割方法带来新的挑战。针对这些挑战,寻求一种更有效的分割模型和并行化的处理方法是有效提高大尺度高分辨率遥感影像分割精度和处理效率的关键。为此,本文提出基于最小生成树的高分辨率遥感影像层次化分割方法及其并行化重构。前者利用层次化最小生成树模型实现高分辨率遥感影像中覆盖的复杂场景信息的有效刻画,在此基础上利用区域化模糊聚类分割方法构建层次化分割模型。后者基于子块切分的并行划分和区域化并行模糊聚类分割方法,实现大尺度高分辨遥感影像的快速、有效分割。论文的主要工作如下。(1)在高分辨率遥感影像层次化最小生成树模型中,以最小生成树为基本模型,从局部、区域和全局三个尺度,分别利用影像最小生成树域模型、最小异质性区域准则以及区域标号场模型刻画影像的层次化场景信息。其中,影像最小生成树域是一种同时考虑像素空间和光谱信息的影像表达模型,其表现出的空间集聚性对自适应地刻画地物边界有独特效果;同质子区域划分由最小异质性区域划分方法实现,该方法以区域的光谱信息和形状信息为合并准则,对抑制影像中琐碎地物引起的几何噪声有较好效果;同质子区域间的空间关联由区域最小生成树模型描述,进一步降低了传统区域分割算法中用区域邻接关系描述区域间空间关联性时造成的冗余,从而提升了区域分割算法的计算效率。(2)在影像的层次化最小生成树基础上,结合区域化隐马尔可夫随机场-模糊聚类(Regional Hidden Markov Random Field-Fuzzy C-Means,RHMRF-FCM)方法构建影像的层次化模糊聚类分割模型。分割模型由RHMRF-FCM目标函数刻画,并由偏微分方法进行求解。为了验证提出方法的有效性和可行性,以World View-3高分辨率遥感影像为实验数据,重点探讨了最小异质区域划分算法中划分尺度、光谱测度相似性权重、区域形状紧致度权重对最终分割结果的影响,以及对比分析了本文算法和e Cognition软件中多分辨率分割方法和分水岭算法。分割结果的定性、定量分析结果表明:提出方法不仅能有效克服高分辨率遥感影像复杂场景中广泛存在的几何噪声影响,且分割精度优于对比算法。(3)为了提高大尺度高分辨率遥感影像的同质子区域划分速度,在串行算法分析基础上,以子块切分为子任务划分准则,提出一种并行最小异质区域划分-子块缝合方法。同时,为了进一步提高RHMRF-FCM算法的分割速度,从降低并行计算过程中的数据通信量角度,结合主从并行模式,设计一种低数据通信量的并行RHMRF-FCM算法。为了验证提出的并行分割方法的有效性和可行性,从并行分割代价和并行性能分析两个方面进行实验验证。实验结果表明,提出的并行方法与串行方法不仅分割精度上较为接近,而且计算时间、加速比和并行效率上均表现卓越,对于6.7千万个像素的高分辨率遥感影像的最优分割时间仅为1小时,总体最高加速比达2075,并行效率曲线趋势表明提出方法在并行调度的均衡负载方面表现突出,且具有良好的可扩展性能。该论文有图67幅,表8个,参考文献120篇。

陈礼锐[7](2020)在《面向未来无线通信的MIMO检测预处理算法及硬件结构研究》文中进行了进一步梳理当今社会,无线通信为人们打开了俯瞰世界的视野,并逐步成为人们生活中密不可分的一部分。然而,随着社会的不断进步,无线通信的发展面临着诸多挑战。一方面,新兴概念如虚拟现实(virtual reality,VR)、物联网(Internet of things,Iot)、智能制造等的出现对无线通信的吞吐率、延迟、可靠性等方面均提出了新的更高要求。而另一方面,适合无线通信的频谱资源又非常有限。因此,增强对现有频谱的利用率是满足未来无线通信需求的不二选择。多入多出(Multiple input multiple output,MIMO)技术能够在不明显提高发射功耗的基础上显着提升频谱效率,因此受到了广泛关注。扩大MIMO系统规模,深度挖掘MIMO技术的潜力对解决未来无线通信面临的高要求和频谱资源有限之间的矛盾具有重要意义。然而,在大规模MIMO技术实际应用之前还需要克服诸多障碍,其中就包括MIMO检测的问题。MIMO检测涉及到较为复杂的矩阵运算,如排序的QR分解、格基规约、矩阵逆等。随着天线规模的扩大,这些运算不仅复杂度极大提升,而且延迟和吞吐率等性能也不断恶化。因此,开发更高效的MIMO检测算法及硬件结构对未来MIMO技术的发展具有重要价值。在这种背景下,本文将主要贡献总结如下。排序的QR分解(Sorted QR decomposition,SQRD)技术在MIMO系统中应用广泛,但是现有的关于SQRD的文献大多只关注矩阵分解环节,因为排序环节在小规模MIMO系统中并不起眼。然而,随着矩阵规模的增大,由排序步骤带来的延迟在系统总延迟中的比重越来越大,甚至占到了主体地位。为了解决排序引发的延迟问题,本文提出了一种分组排序的MGS算法(Group-sorted MGS,GMGS)。该算法一次排序可以预测性地选择多个列向量,使后序的矩阵分解进程可以在多个列向量中连续进行,从而减少了列向量等待时间。此外,GMGS算法中所有的除法和开根号运算全部转换为较为简单的乘法运算,因此GMGS算法比传统MGS算法更有利于硬件设计。为了测试GMGS算法的预测排序机制在降低延迟的同时所带来的负面影响,本文还设计了MIMO仿真链路并将GMGS算法作为一种信道预处理算法进行仿真。该仿真过程中对天线数、译码器类型等进行了多种不同配置。仿真结果表明,GMGS算法在降低延迟的同时,对MIMO检测性能和格基规约算法的复杂度均不产生明显影响,而且GMGS算法的延迟降低效益在大规模MIMO系统中更加显着。基于GMGS算法,本文还设计了两个面向16×16的MIMO系统的硬件结构。该结构采用了深度并行的流水线结构,以及模块复用技术。RTL综合结果表明,两种结构的处理延迟分别为0.32us和0.26us,优于其他同类设计。上述的GMGS算法虽然在延迟方面性能优越,但是在吞吐率和面积方面稍显不足。为了克服这些问题,本文还提出了一种基于松弛排序的GR算法(Sorting-relaxed GR,SRGR)。该算法在传统的GR算法的基础上,采用了细粒度高并行的CORDIC(Coordinated rotation digital computer)算法以达到低复杂度和高吞吐率的目的。为了缓解CORDIC算法拖尾现象引发的延迟问题,SRGR算法采用了一种松弛排序策略。该策略不仅可以一次选择多个列向量,而且在排序依据方面还采用了更加简单的一范数模,从而有效地降低了系统延迟和复杂度。基于SRGR算法,本文还提出了对应的CORDIC阵列硬件结构。该结构中的所有CORDIC模块均可配置为向量模式或者旋转模式,因此矩阵的对角元和非对角元都可以用同一个CORDIC模块进行处理,减轻了数据转发的复杂度。在松弛排序策略的影响下,该结构中的空闲时钟数量大幅降低,延迟性能也得到了较好的改善。最后,本文在65nm工艺下对该结构进行了综合,并与现有的代表性设计进行对比。对比结果表明,SRGR结构在延迟、吞吐率、面积和面积效率方面均优于其他同类设计。格基规约(Lattice reduction,LR)技术在MIMO检测中具有重要地位,该技术可以显着提升MIMO检测的性能,或者在同等的性能约束下降低MIMO译码的复杂度。在LR技术中最着名的是LLL(Lenstra–Lenstra–Lovász)算法,该算法总是能够为同样的格点找到接近最优的格基。然而,由于并非每次迭代都需要进行列交换,标准的LLL算法存在着低硬件效率的问题,而且这种问题在大规模MIMO场景中愈发严重。为此,本文提出了一种并行的贪婪LLL算法(Parallel greedy LLL,PGLLL)。该算法只对存在列交换的迭代进程进行处理,从而显着提升了该算法的硬件效率。相比于传统的贪婪LLL算法,本文的PGLLL算法采用了一种并行的算法结构,该结构中每一级都被分解为若干个独立的迭代进程,因此多个进程可以同时被选择以增强算法的收敛速率。在该结构的基础上,PGLLL算法还采用了一种新的迭代选择策略,该策略综合吸收了传统选择策略的低复杂性和高选择效率的优势。链路仿真结果表明,PGLLL算法在16×16的MIMO系统中只需要6级迭代就可以实现接近于标准LLL算法的性能,而其他贪婪LLL算法需要十几级甚至几十级的迭代。因此,PGLLL算法具有低延迟的潜力。此外,PGLLL算法每一级只需要处理两个进程,而其他非贪婪LLL算法如果采用相同的算法结构每一级需要处理8个迭代进程,因此PGLLL算法还具有低复杂度的潜力。更重要的是,本文首次提出了基于贪婪LLL算法的硬件结构并在65nm工艺下完成了频率综合。实现结果表明,本文的PGLLL结构在吞吐率和延迟方面均具有较大优势。

王明[8](2020)在《面向开放式地理模拟的计算资源适配与调度方法研究》文中指出伴随着地理学研究在定量分析和系统综合方面的不断发展,地理建模与模拟已经成为对地理环境进行历史反演、现状刻画、未来预测的重要研究手段。在各领域地理建模研究工作深入开展的同时,复杂地理问题的求解对于跨领域的模型集成应用提出了更高的需求。开放式地理模拟是以研究者协作探索为基本途径的建模研究方法。在客观地理规律的指导下,通过开放式地理模拟将模型、数据和计算资源进行有机集成,开展综合的地理环境模拟分析。随着网络通信技术和互联网技术的快速发展,开放式地理模拟在模型资源的发展演变、数据资源的更新迭代等方面都对计算资源提出了更丰富的需求。然而,现有开放式地理模拟相关研究主要关注于集成建模框架与流程的构建,对于计算资源支撑方法的研究却少有涉及。地理模拟作为解决复杂地理问题和提供相关决策支持的有效途径,其模拟任务运行的成与败,在很大程度上依赖于合理的计算资源支撑。因此,如何在开放式地理模拟的过程中提供一套稳定的计算资源支撑方法,是开展地理建模与模拟工作的重要内容,也是本研究的主要出发点。本研究以计算资源对于开放式地理模拟的支撑需求为导向,从梳理开放式地理模拟的情景化特征出发,研究支撑开放式地理模拟的计算资源动态聚合框架。在此基础上,探索面向模型服务化运行的计算资源适配方法和面向模型服务化集成的计算资源调度方法,形成适用于不同模拟情景的计算资源适配与调度方法体系,以支撑在网络空间中更加高效地开展综合地理环境的模拟工作。本文的主要研究内容与成果如下:(1)模拟情景驱动的计算资源动态聚合基础框架构建。归纳总结了开放式地理模拟的内涵与情景特征,分析了计算资源对于开放式地理模拟的支撑需求。在此基础上,兼顾建模研究者、资源提供者、模型资源、数据资源和计算资源,提出了模拟情景驱动的计算资源动态聚合基础框架。通过兼容不同的网络结构和通信方式,将模型的执行需求与计算资源之间进行特征关联,从而在网络环境中寻找优化的计算策略,并进一步阐述了计算资源的适配与调度对于开放式地理模拟研究的基础支撑作用。(2)网络环境下单模型服务计算资源适配方法研究。分析了网络环境下单模型运行的计算资源适配关键问题,提出了计算资源适配的基础架构。在计算资源适配基础架构的指导下,分别设计了地理模型运行环境信息描述方法和计算资源环境信息规范化表达方法;提出了计算资源匹配指标体系和计算资源择优推荐方法,降低了模型资源与计算资源适配的难度;基于上述基础研究方法,从适配结果推荐、参与式部署、模型服务校验三个方面设计了智能化推荐的计算资源适配方法,实现地理模型从部署到运行的整个适配流程,为后续模型集成提供了资源支撑。(3)网络环境下多模型集成计算资源调度方法研究。提出了基于科学工作流的集成流程表达方法,实现了集成任务流程的具象化表达和结构化存储;设计了基于Qo S的模型集成计算资源调度策略,实现了对集成流程中服务的优选组合和整体运行控制;在执行调度策略的基础上,分析了模拟任务运行过程中的优化情景,从计算资源的角度出发,分别构建了协作式备选的任务优化策略和负载动态感知的任务调度策略,保障和优化了集成任务的运行。本文针对开放式地理模拟过程中的计算资源需求问题,从单模型运行和多模型集成两方面出发,设计了面向开放式地理模拟的计算资源适配与调度方法。在此基础上,实现了适用于不同模拟情景的计算资源适配与调度方法体系,从而更好的支撑网络空间中对于复杂地理问题的求解,促进地理模拟相关研究的发展。

段文雪[9](2020)在《面向不确定环境场景规约的定量时间分析研究》文中研究说明随着5G通信、物联网技术的发展,越来越多软件、硬件被部署在开放的物理环境中。然而,系统在该环境中运行存在多种不确定性因素(例如,系统输入、消息处理时间和网络延迟),由于缺乏对开放的物理环境中系统的不确定性因素建模和有效评估的方法,设计人员难以对系统的整体性能进行准确分析,不能保证系统可靠性。针对系统在不确定环境下的建模和分析问题,本文采用主流的场景规约描述语言UML顺序图,提出了面向不确定环境场景规约的建模和分析方法。该方法能够高效地支持UML顺序图对不确定环境的建模,同时支持UML顺序图模型的定量时间分析。本文的主要贡献如下:1.扩展了UML顺序图的语法和语义,使其支持不确定性行为建模针对系统在实际运行环境中存在系统输入、消息处理时间和网络延迟的不确定性,本文扩展了UML顺序图的语法和语义,使其支持对不确定性因素的建模。2.提出了不确定环境UML顺序图定量时间分析方法框架本文提出了一个基于统计模型检验的面向不确定环境UML顺序图的定量时间分析框架。在本文提出的框架中先通过一套完整预处理机制对UML顺序图进行预处理,然后将经过预处理的不确定环境UML顺序图模型自动转化为价格时间自动机模型,最后通过统计模型检验工具对转化后的价格时间自动机验证,用以支持对不确定场景规约定量时间分析。3.设计了一个面向不确定环境UML顺序图模型定量时间分析工具链,实现了自动化模型转换工具SDTo UPPAAL本文实现的自动化模型转换工具SDTo UPPAAL,与UML顺序图建模工具、价格时间自动机验证工具形成一个工具链。该工具链可以定量时间分析不确定环境场景规约,帮助系统设计决策者选取更优的系统,提高系统的可靠性和正确性。实验结果表明,本文提出的面向不确定场景规约的建模和分析方法,不仅能够支持对不确定环境的建模,而且能定量时间分析系统模型,为系统开发提供有意义的指导。此外,自动化的模型转换工具有效地帮助缩短系统设计和开发的周期,降低人工参与度。

周戈[10](2020)在《面向不确定环境的运行时验证关键技术研究》文中认为随着人类社会的不断发展,软件的规模日益复杂,形式也众彩纷呈。但是软件危机就像一个如影相随的恶魔,经常在不经意中给人类造成损失。尤其是关乎国计民生的领域,对安全更加十分重视。金融、国防、航空航天等领域部署的软件,更是安全攸关。如何抵御“恶魔”?一方面,软件工程提出一整套的理论来帮助人们在软件开发过程中按照规范的流程来生产;另外一方面人们研究各种的软件质量保证技术来检测生产出来的软件是否可靠,测试、模型检验、符号执行等技术应运而生。运行时验证技术也是种软件质量保证技术,主要用于监控目标系统的运行轨迹是否符合预期规约。它可以被应用于软件部署后,因而可以检测与运行环境相关的监控需求;另外运行时验证技术还是种轻量级的数学形式化的验证方法,不同于测试技术对于复杂系统路径难以全面覆盖以及使用模型检验技术可能状态爆炸的问题,运行时验证技术只针对监控目标的当前运行轨迹;运行时监控器由监控规约进行数学形式化处理产生,所以其判定的结果是可靠的,一般以自动机的形式被部署到监控系统上面。在之前的研究中,有学者提出软件主动监控的技术:通过静态阶段分析目标系统的模型或者代码,提取出有用信息,让运行态监控器能够主动的预测未来系统与监控规约的满足情况。这种技术让运行时验证从只能发现问题后报警,到能够提前实现预判,为干预留有了时间,从而为避免软件失效的留有可能。软件主动监控技术极大的扩展了运行时验证技术的应用空间。正是由于运行时验证技术的这四个优点:可被应用于软件部署后、轻量级、数学形式化的方法、可预测的技术,因而被广泛的应用于各行各业。本文主要研究把运行时验证方法用于具有不确定性特征的环境和系统时,如何提升对时序性质监控的量化预测能力,具体工作和创新点包括:(1)为了提高运行时验证对性质违背的预测能力,人们已提出了基于模型的方法、基于程序分析的方法等。但对于没有模型和代码、存在不确定性行为的黑盒类系统,这些方法难以适用。对此,本文提出一种通过机器学习来学习系统确定行为的概率模型、并部署运行时概率监控器的方法。首先,根据监控规约中的事件,从待监控目标的日志库中提取出相应的历史轨迹集合,再通过机器学习的方法从这个轨迹库中构建出符合观测日志的马尔可夫模型。根据学习到的概率模型和规约性质生成迁移系统,进一步综合成运行时概率监控器,用来预测不确定环境下的目标系统对性质违背的概率。概率监控器的优势是能以定量的方式分析出当前系统状态满足或者违背监控规约的可能性,从而以预测系统运行对性质违背的趋势。(2)运行时验证技术应用于分布式系统的时候,会因为通讯等问题存在事件丢失现象,监控效能难以保证。当面对有时序要求的监控规约,常用的方式是将每个节点发生的事件打上时间戳,监控器根据事件的时间戳进行集中判定。但对于分布式系统,尤其是环境和其节点空间位置都在不断变化的动态分布式系统来说,延迟甚至是丢包等问题经常出现,难以从根本上解决。本文提出一种针对分布式系统,基于历史数据,在缺失部分事件信息的情况下,依旧能做出判定的概率监控器生成方法。这个方法首先根据监控事件学习产生概率模型,在监控器因为缺失信息无法判定的时候,概率模型能帮助运行时监控器计算缺失信息在各个位置的可能性,从而得到当前系统状态与性质规约的满足度。实验表明,这种方法对于分布式系统的运行时监控能有效地提升监控效果,有很强的实用性。(3)运行时验证技术在应用中,将不可避免的加大被监控系统的开销,如何有效的减小监控对目标系统的影响,是一个重要的研究内容。本文针对一些具有同构特征的性质,提出种基于模板的运行时验证方法。该方法能有效减少监控器本身带来的冗余,在把监控器以插装的形式植入目标系统时,也能减轻对目标系统的影响。此外,还提出回溯机制来优化运行时验证过程,回溯机制能针对一类特殊性质减少对目标系统的插装点,从而提高运行时验证的效率。(4)在上面提出模型学习的方式来构造概率监控器时,为了提高模型学习的效率,本文研究了增量式的运行时验证方法。在通过构建目标系统和不确定环境的概率模型时,提出了基于增量式隐马尔科夫模型构造的运行时验证技术,可以通过单点数据触发、数据集触发、时间触发等不同模型来高效更新学习到的模型,从而使运行时验证能够体现最新的模型学习结果,并通过实验表明了增量式模型构造方法对比非增量式方法的优势。

二、一个面向网络并行环境的需求规约语言(论文开题报告)

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

三、一个面向网络并行环境的需求规约语言(论文提纲范文)

(1)云计算系统的形式化建模与验证方法研究(论文提纲范文)

摘要
abstract
第1章 绪论
    1.1 研究背景与意义
    1.2 研究现状及相关工作
    1.3 研究内容
    1.4 论文组织结构
第2章 形式化方法的基本理论与相关工具
    2.1 基本理论
        2.1.1 形式语义
        2.1.2 时间自动机
        2.1.3 着色Petri网
    2.2 相关工具
        2.2.1 UPPAAL工具
        2.2.2 CPN Tools工具
    2.3 形式化方法与本文工作的关联
第3章 云计算系统中数据处理框架的执行语义模型
    3.1 引言
    3.2 分布式抽象格局
    3.3 执行语义
        3.3.1 事件转换步
        3.3.2 SDAC模型
    3.4 SDAC模型与Aeolus模型的对比分析
    3.5 SDAC模型评估
        3.5.1 Map Reduce实例研究
        3.5.2 SDAC模型的扩展应用
    3.6 本章小结
第4章 云计算系统中主从式数据存储系统建模与验证
    4.1 引言
    4.2 具有备份流水线的主从式云数据存储系统框架MSCDSS-RP
    4.3 MSCDSS-RP的 CPN建模
        4.3.1 客户端模型
        4.3.2 元服务器模型
        4.3.3 集群模型
    4.4 MSCDSS-RP的形式化评估
        4.4.1 状态空间分析
        4.4.2 性质验证
    4.5 本章小结
第5章 云计算系统中资源供给服务的建模与验证
    5.1 引言
    5.2 资源供给服务框架RPaaS
    5.3 RPAAS的 UPPAAL建模
        5.3.1 RPaaS的相关定义
        5.3.2 客户端模型
        5.3.3 服务管理中心模型
        5.3.4 资源服务模型
    5.4 RPaaS的一致性验证
        5.4.1 形式规约说明
        5.4.2 形式化验证
    5.5 本章小结
第6章 云计算系统下基于着色PETRI网的攻击容错框架
    6.1 引言
    6.2 攻击容错框架
        6.2.1 基本攻击-网络交互模式
        6.2.2 攻击检测器
        6.2.3 基本容错方案
    6.3 案例分析:基于云的医疗信息存储系统
    6.4 阻塞模式及自动化容错的进一步讨论
    6.5 本章小结
第7章 总结与展望
    7.1 总结
    7.2 展望
参考文献
作者简介及在学期间科研成果
致谢

(2)面向自主船舶的危险分析方法研究(论文提纲范文)

创新点摘要
摘要
ABSTRACT
1 绪论
    1.1 研究背景
    1.2 研究的必要性及意义
    1.3 国内外相关研究现状及进展
        1.3.1 自主船舶的安全性研究
        1.3.2 危险分析方法的发展与演变
        1.3.3 系统理论过程分析的应用
    1.4 自主船舶安全性研究中存在的问题及解决思路
    1.5 主要研究内容与结构框架
        1.5.1 主要研究内容
        1.5.2 结构框架
    1.6 本章小结
2 自主船舶的定义及其自主水平的界定
    2.1 自主船舶的历史沿革
    2.2 自主船舶的发展历程
    2.3 自主船舶的定义与自主化演变
        2.3.1 自主船舶的定义
        2.3.2 船舶自主化的演变
    2.4 自主水平分级标准
        2.4.1 LR自主水平分级标准
        2.4.2 NFAS自主水平分级标准
        2.4.3 DMA自主水平分级标准
        2.4.4 MASRWG自主水平分级标准
        2.4.5 BV自主水平分级标准
        2.4.6 IMO自主水平分级标准
    2.5 自主水平分级标准的划分依据
    2.6 基于航海实践的自主水平分级方法
    2.7 实例分析
        2.7.1 “Folgefonn”号渡轮自主水平分级
        2.7.2 “Falco”号渡轮自主水平分级
    2.8 本章小结
3 面向自主船舶的危险分析方法适用性评估
    3.1 危险分析方法的选取与概述
        3.1.1 基于事件链的危险分析方法
        3.1.2 基于能量转移的危险分析方法
        3.1.3 基于状态迁移的危险分析方法
        3.1.4 基于系统理论的危险分析方法
        3.1.5 其他危险分析方法
    3.2 基于系统工程的适用性评估方法
        3.2.1 文献综述的数据准备
        3.2.2 危险分析方法的筛选
        3.2.3 评估程序的确定
        3.2.4 评估准则的生成
    3.3 适用性评估过程
        3.3.1 聚类分析
        3.3.2 适用性评估结果
    3.4 适用性评估结果分析
        3.4.1 存在局限性的危险分析方法
        3.4.2 STPA的适用性分析
    3.5 本章小结
4 面向自主船舶的危险分析与安全性建模
    4.1 自主船舶的系统安全描述
        4.1.1 自主船舶的运行特点
        4.1.2 自主船舶面临的系统风险
    4.2 危险分析的基本原理
        4.2.1 危险及其相关术语的定义
        4.2.2 危险的转化
        4.2.3 危险分析过程
    4.3 基于STPA的安全性协同分析方法
        4.3.1 STPA及其扩展方法的局限性
        4.3.2 STPA-SynSS的提出
    4.4 考虑退化组件的自主船舶安全性建模
    4.5 实例分析
        4.5.1 基于STPA-SynSS的远程控制船舶危险分析
        4.5.2 考虑退化组件的远程控制船舶安全性建模
    4.6 STPA-SynSS与STPA危险分析结果的对比分析
    4.7 本章小结
5 面向自主船舶的形式化建模与危险分析结果验证
    5.1 形式化方法概述
    5.2 基于时间自动机的模型检测方法
        5.2.1 模型检测的基本原理
        5.2.2 时间自动机理论
        5.2.3 时间自动机网络
        5.2.4 模型检测工具UPPAAL概述
    5.3 基于时间自动机的STPA-SynSS扩展流程
    5.4 远程控制船舶时间自动机网络模型的构建
    5.5 STPA-SynSS危险分析结果的验证
    5.6 本章小结
6 结论与展望
    6.1 结论
    6.2 展望
参考文献
作者简历及攻读博士学位期间的科研成果
致谢

(3)分布式与自动化大数据智能分析算法与编程计算平台(论文提纲范文)

摘要
ABSTRACT
第一章 绪论
    1.1 研究背景与概况
        1.1.1 研究背景与基本问题
        1.1.2 难点技术与关键科学问题
        1.1.3 国内外发展概况
    1.2 国内外研究现状与趋势
        1.2.1 大数据分析挖掘和机器学习并行化算法
        1.2.2 大数据自动化机器学习技术
        1.2.3 大数据智能分析编程计算方法与平台
    1.3 现有研究工作和技术存在的不足
    1.4 本文组织架构
    1.5 本文的研究内容和主要工作
        1.5.1 总体研究目标与研究内容
        1.5.2 本文主要研究内容
第二章 高效的大规模分布式函数依赖发现算法
    2.1 研究背景与问题
    2.2 背景知识与相关工作
        2.2.1 函数依赖基本定义
        2.2.2 基于采样-验证的函数依赖发现
        2.2.3 已有函数依赖发现算法
    2.3 基于属性重排序的算法框架
    2.4 数据预处理
        2.4.1 属性信息统计
        2.4.2 属性重排序
        2.4.3 记录编码
    2.5 AFDD算法
        2.5.1 总体流程
        2.5.2 分布式成对采样
        2.5.3 属性并行的剪枝-生成
        2.5.4 分布式基于索引的验证
        2.5.5 自适应的采样-验证切换
        2.5.6 复杂度分析
    2.6 Batch AFDD算法
    2.7 性能评估
        2.7.1 实验环境
        2.7.2 性能比较
        2.7.3 扩展性评估
        2.7.4 属性重排序评估
        2.7.5 分布式探测评估
    2.8 本章小结
第三章 高效的大规模分布式并行化谱聚类算法
    3.1 研究背景与问题
    3.2 背景知识与相关工作
        3.2.1 谱聚类算法基本原理
        3.2.2 样本间相似性度量方法
        3.2.3 谱聚类算法主要流程
    3.3 相似度矩阵构建及稀疏化并行化
        3.3.1 相似度并行计算
        3.3.2 相似度矩阵稀疏化
    3.4 Laplacian矩阵构建及正规化并行化
        3.4.1 Laplacian矩阵构建
        3.4.2 Laplacian矩阵正规化
    3.5 特征向量计算并行化
        3.5.1 精确特征向量并行化求解
        3.5.2 近似特征向量并行化求解
    3.6 k-means聚类并行化
        3.6.1 k-means聚类算法描述
        3.6.2 k-means聚类并行化
        3.6.3 距离计算优化
    3.7 性能评估
        3.7.1 实验环境及数据
        3.7.2 聚类效果评估
        3.7.3 算法性能评估
        3.7.4 数据可扩展性评估
        3.7.5 节点可扩展性评估
    3.8 本章小结
第四章 高效的分布式深度森林训练方法与算法
    4.1 研究背景与问题
    4.2 背景知识与相关工作
        4.2.1 深度森林
        4.2.2 Ray
        4.2.3 多层表征学习
        4.2.4 机器学习框架与声明式编程模型
    4.3 基于子森林划分的任务并行训练算法
        4.3.1 设计动机
        4.3.2 划分和合并
        4.3.3 复杂度分析
    4.4 系统设计与优化
        4.4.1 系统概述
        4.4.2 高层编程API
        4.4.3 系统层优化
    4.5 性能评估
        4.5.1 实验环境及数据
        4.5.2 模型配置
        4.5.3 性能对比
        4.5.4 扩展性评估
        4.5.5 负载均衡评估
        4.5.6 系统层优化评估
        4.5.7 划分粒度分析
    4.6 本章小结
第五章 大数据AutoML自动化机器学习方法与算法
    5.1 研究背景与内容概述
    5.2 相关工作
    5.3 基于强化学习和贝叶斯优化的机器学习流水线自动化设计
        5.3.1 研究背景与问题
        5.3.2 基于强化学习的结构搜索
        5.3.3 基于贝叶斯优化的算法超参优化
        5.3.4 分布式并行的流水线设计
        5.3.5 性能评估
        5.3.6 小结
    5.4 资源受限场景下基于自适应连续过滤的自动化机器学习
        5.4.1 研究背景与问题
        5.4.2 自适应连续过滤算法BOASF
        5.4.3 基于BOASF的模型选择
        5.4.4 基于BOASF的超参数优化
        5.4.5 性能评估
        5.4.6 小结
    5.5 终生学习场景下基于加权集成的自动化机器学习
        5.5.1 研究背景与问题
        5.5.2 自动化终生学习问题定义
        5.5.3 基于加权集成学习的算法框架
        5.5.4 针对概念漂移的自适应权重设计
        5.5.5 性能评估
        5.5.6 小结
    5.6 本章小结
第六章 大数据AutoDL自动化深度学习方法与算法
    6.1 研究背景与内容概述
    6.2 相关工作
    6.3 基于渐进式多保真度评估的超参数优化
        6.3.1 研究背景与问题
        6.3.2 低保真度评估偏差
        6.3.3 渐进式多保真度评估
        6.3.4 贝叶斯模型构建及其热启动
        6.3.5 性能评估
        6.3.6 小结
    6.4 最小化离散性能偏差的可微分网络架构搜索
        6.4.1 研究背景与问题
        6.4.2 可微分的网络架构搜索
        6.4.3 最小化离散性能偏差
        6.4.4 随机固定规约单元的架构搜索
        6.4.5 性能评估
        6.4.6 小结
    6.5 本章小结
第七章 统一大数据智能分析编程计算方法与平台
    7.1 研究背景与问题
    7.2 相关工作
    7.3 跨平台统一大数据智能分析编程计算模型与方法
        7.3.1 跨平台统一大数据智能分析编程计算模型
        7.3.2 基于计算流图的大数据智能分析编程方法
    7.4 统一大数据智能分析平台集成与调度优化
        7.4.1 统一大数据智能分析平台集成框架
        7.4.2 跨平台统一调度优化
    7.5 统一大数据智能分析算法集成与自动化机器学习建模
        7.5.1 统一大数据智能分析算法集成框架
        7.5.2 自动化机器学习建模工具平台
    7.6 统一大数据智能分析与可视化编程原型系统设计与实现
        7.6.1 系统总体架构
        7.6.2 系统主要功能与模块设计实现
        7.6.3 系统基本操作使用与大数据智能分析示例
        7.6.4 系统技术特征总结
    7.7 关键技术应用验证
        7.7.1 分布式数据挖掘与机器学习算法应用验证
        7.7.2 AutoML自动化机器学习算法应用验证
    7.8 本章小结
第八章 总结与展望
    8.1 工作总结
    8.2 进一步的工作与研究展望
参考文献
致谢
攻读博士期间已发表论文列表
攻读博士期间参研项目列表
攻读博士期间获奖情况列表
攻读博士期间学术服务列表
应用成果证明

(4)基于标记的跨平台并行编程框架设计与实现(论文提纲范文)

摘要
ABSTRACT
第1章 绪论
    1.1 研究背景及意义
    1.2 研究现状
        1.2.1 自动并行技术及工具
        1.2.2 并行编程模型及框架
        1.2.3 基于标记的并行框架
        1.2.4 面向应用编程框架
    1.3 本文研究内容
        1.3.1 并行编程框架结构设计
        1.3.2 并行机制与标记语言设计
        1.3.3 辅助支撑系统设计与实现
    1.4 论文组织
第2章 相关并行编程模型和框架
    2.1 PVTOL
    2.2 OpenMM
    2.3 本章小结
第3章 并行编程框架总体设计
    3.1 任务模型设计
        3.1.1 信号处理问题
        3.1.2 任务模型抽象和建立
    3.2 框架总体设计
        3.2.1 框架层次模型
        3.2.2 框架处理流程
        3.2.3 框架结构设计
    3.3 标记系统设计
        3.3.1 标记语言设计
        3.3.2 标记语言结构
        3.3.3 标记语言分类
    3.4 基于标记的代码解析
        3.4.1 代码解析算法设计
        3.4.2 数据划分和分发阶段
        3.4.3 数据计算阶段
        3.4.4 数据收集和归约阶段
    3.5 本章小结
第4章 并行编程框架实现及优化
    4.1 并行环境实现
        4.1.1 并行条件设置
        4.1.2 并行初始化实现
    4.2 并行及跨平台实现
        4.2.1 标记系统实现
        4.2.2 代码解析系统实现
    4.3 性能参数自动寻优
        4.3.1 共享存储平台
        4.3.2 分布存储平台
    4.4 实验与结果分析
        4.4.1 并行跨平台程序生成实验
        4.4.2 并行性能对比实验
    4.5 本章小结
第5章 总结
    5.1 本文工作
    5.2 本文贡献与创新之处
    5.3 进一步工作
参考文献
致谢
在读期间发表的学术论文与取得的研究成果
攻读学位期间参加的科研项目

(5)支持深度学习算子并行算法调优的ParaC编译器研究(论文提纲范文)

摘要
Abstract
1 引言
    1.1 研究目的与意义
    1.2 国内外研究现状
    1.3 研究内容与论文组织结构
2 ParaC编译器的现状和需求分析
    2.1 ParaC编程语言
    2.2 ParaC编译器的总体结构与工作流程
    2.3 CUDA简介及对ParaC的需求
    2.4 深度学习算法优化对ParaC的需求
    2.5 本章小结
3 ParaC的语言扩展和制导设计
    3.1 术语介绍
    3.2 多维矩阵和非紧嵌iterator结构的支持
    3.3 并行区域的grid空间制导
    3.4 循环分段和并行映射
    3.5 shared数组优化的制导
    3.6 设备主存变量的驻留制导
    3.7 本章小结
4 编译器的扩展设计
    4.1 编译选项
    4.2 ParaC扩展设计
    4.3 数据结构的设计
    4.4 编译器中后端实现流程
    4.5 程序特征分析与基础信息收集
    4.6 循环的多层分段变换与代码生成
    4.7 shared数组优化与代码生成
    4.8 线程组的同步与原子操作的分析和代码生成
    4.9 规约操作的块内并行优化
    4.10 设备内存的运行时管理
    4.11 本章小结
5 实验评估
    5.1 测试环境
    5.2 新sort算法的测试
    5.3 Batch normalization新优化方法的测试
    5.4 本章小结
6 总结与展望
    6.1 总结
    6.2 未来工作及展望
参考文献
作者简历
致谢
学位论文数据集

(6)基于最小生成树的高分辨率遥感影像层次化分割方法研究(论文提纲范文)

致谢
摘要
abstract
变量注释表
缩略语清单
1 绪论
    1.1 研究背景
    1.2 研究现状
    1.3 研究内容
    1.4 论文组织
2 基本理论
    2.1 图论基础
    2.2 模糊聚类方法
    2.3 并行计算
    2.4 精度评价
    2.5 本章小结
3 高分辨率遥感影像层次化最小生成树模型
    3.1 影像的图模型
    3.2 影像的最小生成树模型
    3.3 最小异质区域划分
    3.4 区域最小生成树模型
    3.5 层次化最小生成树模型
    3.6 本章小结
4 基于最小生成树的层次化模糊聚类分割
    4.1 层次化模糊聚类分割模型
    4.2 分割模型求解
    4.3 实验结果与讨论
    4.4 本章小结
5 基于MST的层次化模糊聚类并行分割
    5.1 串行算法分析
    5.2 最小异质区域并行划分
    5.3 并行RHMRF-FCM算法
    5.4 实验结果与讨论
    5.5 本章小结
6 总结与展望
    6.1 结论
    6.2 创新点
    6.3 展望
参考文献
查新结论
作者简历
学位论文数据集

(7)面向未来无线通信的MIMO检测预处理算法及硬件结构研究(论文提纲范文)

摘要
ABSTRACT
第一章 绪论
    1.1 课题研究背景及意义
        1.1.1 移动通信的高速发展
        1.1.2 MIMO的研究意义和挑战
    1.2 国内外发展状况
        1.2.1 QR分解研究现状
        1.2.2 格基规约技术研究现状
        1.2.3 MIMO译码算法研究现状
        1.2.4 研究现状总结
    1.3 本文主要工作和创新点
    1.4 论文结构
第二章 相关背景
    2.1 MIMO上行链路
    2.2 MIMO上行仿真链路
    2.3 MIMO模型
    2.4 SQRD算法
        2.4.1 SQRD算法的功能
        2.4.2 HT算法
        2.4.3 GS算法
        2.4.4 GR算法
        2.4.5 Cholesky算法
        2.4.6 SQRD总结
    2.5 LR算法
        2.5.1 LR算法的功能
        2.5.2 LLL算法
    2.6 MIMO译码算法
        2.6.1 线性译码算法
        2.6.2 SIC译码算法
        2.6.3 球形译码算法
    2.7 本章小结
第三章 分组排序的MGS算法及硬件结构
    3.1 问题提出
    3.2 传统的MGS算法分析
    3.3 分组排序MGS算法
        3.3.1 算法迭代路径更短
        3.3.2 倒数平方根单元
        3.3.3 低延迟排序策略
    3.4 算法性能仿真
        3.4.1 GMGS算法对MIMO译码性能的影响
        3.4.2 GMGS算法对LR的影响
        3.4.3 GMGS算法在大规模MIMO中的特性
    3.5 硬件结构顶层模块
    3.6 子模块设计
        3.6.1 初始化模块(Initial)
        3.6.2 排序模块(sort)
        3.6.3 列处理模块(PS)
        3.6.4 倒数平方根模块(RSR)
        3.6.5 寄存器字长设计
    3.7 实现结果及分析
    3.8 本章小结
第四章 基于松弛排序的GR算法及硬件结构
    4.1 问题提出
    4.2 传统GR算法特征分析
    4.3 松弛排序GR算法(SRGR)
        4.3.1 松弛排序策略
        4.3.2 多列并行分解及CORDIC缩放优化
        4.3.3 算法灵活性
    4.4 复杂度和延迟分析
        4.4.1 复杂度分析
        4.4.2 延迟分析
    4.5 基于SRGR算法的硬件结构
        4.5.1 SRGR顶层结构
        4.5.2 初始化模块(Initial)
        4.5.3 排序模块(sort)
        4.5.4 Givens旋转阵列模块(GRA)
        4.5.5 基本旋转单元
    4.6 实现结果与比较
    4.7 本章小结
第五章 并行贪婪LLL算法及硬件结构
    5.1 问题的提出
    5.2 现有的贪婪LLL算法分析
    5.3 并行贪婪LLL算法
        5.3.1 并行算法架构
        5.3.2 迭代选择策略的特征
        5.3.3 迭代选择策略的低复杂度优势
    5.4 算法性能分析
        5.4.1 PGLLL算法参数设置
        5.4.2 K-best和 SIC译码器中PGLLL算法的BER性能
        5.4.3 相干信道下PGLLL的性能
    5.5 硬件结构设计
        5.5.1 PGLLL顶层结构
        5.5.2 尺寸规约模块(R-size reduction)
        5.5.3 状态检查和迭代选择模块(Check& selection)
        5.5.4 LLL规约模块(LLL-reduction)
        5.5.5 全尺寸规约模块(FSR)
        5.5.6 定点数仿真
    5.6 硬件实现结果对比与分析
    5.7 本章小结
第六章 结束语
    6.1 本文工作总结
    6.2 未来研究方向
致谢
参考文献
作者在学期间取得的学术成果

(8)面向开放式地理模拟的计算资源适配与调度方法研究(论文提纲范文)

摘要
Abstract
第1章 绪论
    1.1 研究背景及意义
        1.1.1 研究背景
        1.1.2 研究意义
    1.2 国内外研究现状综述
        1.2.1 地理建模与模拟
        1.2.2 地理模型共享与集成方法
        1.2.3 地理模型部署方法
        1.2.4 面向模拟任务运行的计算资源调度方法
        1.2.5 研究现状分析和总结
    1.3 研究目标和研究内容
        1.3.1 研究目标
        1.3.2 研究内容
    1.4 研究方法和技术路线
        1.4.1 研究方法
        1.4.2 技术路线
    1.5 论文组织结构
第2章 开放式地理模拟特征及其计算资源需求分析
    2.1 开放式地理模拟
        2.1.1 开放式地理模拟的内涵
        2.1.2 开放式地理模拟的类型
        2.1.3 开放式地理模型的特征
    2.2 网络环境中的开放式地理模拟的情景特征
        2.2.1 面向单模型服务运行的应用情景分析
        2.2.2 面向多模型集成的应用情景分析
    2.3 面向开放式地理模拟的计算资源动态聚合
        2.3.1 网络环境中的计算资源特性
        2.3.2 计算资源对开放式地理模拟的支撑需求
        2.3.3 模拟情景驱动的计算资源动态聚合基础框架
    2.4 本章小结
第3章 网络环境下单模型运行计算资源适配方法研究
    3.1 面向模型运行的计算资源适配
        3.1.1 计算资源适配需求分析
        3.1.2 计算资源适配基础架构
    3.2 模型资源与计算资源的环境信息规范化描述
        3.2.1 模型资源运行环境描述方法设计
        3.2.2 计算资源环境信息描述方法设计
    3.3 计算资源匹配指标体系与择优推荐方法
        3.3.1 计算资源匹配指标分析与体系构建
        3.3.2 计算资源择优推荐方法设计
    3.4 智能化推荐的计算资源适配方法
        3.4.1 基于环境信息匹配的适配结果推荐
        3.4.2 基于模型部署包的参与式部署
        3.4.3 基于通用接口的模型服务校验
    3.5 本章小结
第4章 网络环境下多模型集成计算资源调度方法研究
    4.1 地理模型服务集成引擎基础架构设计
        4.1.1 服务化集成应用需求分析
        4.1.2 地理模型服务集成引擎基础架构
    4.2 基于科学工作流的集成流程表达
        4.2.1 面向模型集成的科学工作流基本构成
        4.2.2 面向模型集成的工作流结构化描述文档设计
    4.3 基于QoS模型集成计算资源调度
        4.3.1 Web服务领域下的Qo S模型
        4.3.2 地理模型服务QoS模型的整体设计
        4.3.3 基于QoS模型的集成工作流执行调度
    4.4 面向模型集成运行的计算资源优化
        4.4.1 运行优化情景分析
        4.4.2 协作式备选的任务优化策略
        4.4.3 负载动态感知的任务调度策略
    4.5 本章小结
第5章 原型系统与实验验证
    5.1 原型系统构建
        5.1.1 系统设计目标
        5.1.2 系统逻辑结构
        5.1.3 原型系统的门户网站
    5.2 实验与结果分析
        5.2.1 实验环境搭建
        5.2.2 模型服务化运行实验
        5.2.3 典型流域尺度模型集成案例实验
        5.2.4 不同应用情景下优化方法对比实验
    5.3 本章小结
第6章 结论与展望
    6.1 结论
    6.2 不足与展望
附录A OpenGMS平台资源获取接口参照表
参考文献
在读期间发表的学术论文及科研成果
致谢

(9)面向不确定环境场景规约的定量时间分析研究(论文提纲范文)

摘要
abstract
第一章 绪论
    1.1 研究背景与意义
    1.2 研究挑战
    1.3 研究内容与创新点
    1.4 相关工作介绍
        1.4.1 场景规约语言研究
        1.4.2 时间自动机研究
        1.4.3 定量分析方法研究
    1.5 本文组织结构
第二章 相关理论介绍
    2.1 场景规约语言UML顺序图
    2.2 价格时间自动机理论
    2.3 统计模型检验理论和工具UPPAAL-SMC
    2.4 本章小结
第三章 不确定环境下UML顺序图建模
    3.1 基本UML顺序图建模
    3.2 不确定环境UML顺序图建模
    3.3 本章小结
第四章 UML顺序图模型定量时间分析
    4.1 UML顺序图模型定量时间分析框架
    4.2 预处理模块
        4.2.1 par组合片段预处理
        4.2.2 alt组合片段预处理
        4.2.3 loop组合片段预处理
    4.3 NPTA模型模块
        4.3.1 前端模型
        4.3.2 后端模型
    4.4 性质生成模块
    4.5 本章小结
第五章 UML顺序图定量时间分析框架工具实现
    5.1 工具链
    5.2 SDtoUPPAAL设计框架
    5.3 转换工具的具体实现
        5.3.1 UML顺序图解析模块
        5.3.2 模型转换模块
        5.3.3 模型生成模块
    5.4 本章小结
第六章 案例研究
    6.1 实验描述
    6.2 实验环境配置
    6.3 限制向前人工驾驶模式切换的场景
    6.4 超速监督保护场景
    6.5 本章小结
第七章 总结与展望
    7.1 总结
    7.2 展望
参考文献
致谢
攻读硕士学位期间发表论文和科研情况

(10)面向不确定环境的运行时验证关键技术研究(论文提纲范文)

摘要
Abstract
第一章 绪论
    1.1 研究背景
        1.1.1 软件质量保证技术
        1.1.2 运行时验证技术概述
        1.1.3 运行时验证面临的挑战
    1.2 相关工作
        1.2.1 运行时验证的主要类型
        1.2.2 监控器生成方法
        1.2.3 监控器优化方法
        1.2.4 监控能力的扩展
        1.2.5 运行时验证工具
        1.2.6 概率性质的运行时验证
    1.3 研究动机
    1.4 本文的主要工作和创新点
    1.5 论文结构
    1.6 本章小结
第二章 运行时验证技术
    2.1 运行时验证的监控规约
    2.2 运行时验证的监控语义
    2.3 监控器构造
    2.4 监控器部署方法
    2.5 运行时验证过程
    2.6 运行时软件干预技术
        2.6.1 运行回滚
        2.6.2 在线规划
        2.6.3 运行时代码调控
        2.6.4 故障隔离与降级
    2.7 运行时软件主动监控技术
        2.7.1 基于模型的软件主动监控技术
        2.7.2 基于静态代码分析的软件主动监控技术
    2.8 本章小结
第三章 基于不确定环境概率模型学习的运行时验证
    3.1 预备知识
        3.1.1 图论相关概念
        3.1.2 离散马尔可夫链DTMC
        3.1.3 隐马尔可夫模型HMM
        3.1.4 Baum-Welch算法
    3.2 基于学习建立概率模型
        3.2.1 问题描述
        3.2.2 构造概率模型过程
    3.3 概率监控器的生成
        3.3.1 从LTL到 DRA
        3.3.2 生成运行时概率监控器
    3.4 实验和评估
    3.5 本节小结
第四章 面向分布式系统非确定性的运行时验证
    4.1 动态分布式系统运行时验证的挑战
        4.1.1 动态分布式系统
        4.1.2 动态分布式系统的概率运行时验证
    4.2 面向动态分布式系统带概率运行时监控器技术
        4.2.1 动态分布式式系统及其事件进行建模
        4.2.2 动态分布式系统的可容错运行时验证
    4.3 实现与实验
    4.4 本章小结
第五章 基于性质同构与事件回溯机制的监控优化方法
    5.1 模板监控器生成:单性质、多对象
    5.2 模板监控器生成:多性质、多对象
    5.3 运行时验证回溯机制
    5.4 实验评估和论证
        5.4.1 模板监控器实验
        5.4.2 回溯运行时验证效能实验
    5.5 本章小结
第六章 基于增量学习的演进式运行时验证方法
    6.1 问题描述
    6.2 基于隐马尔可夫BW算法的增量式模型更新
        6.2.1 基于BW算法的后向概率增量学习方法
        6.2.2 基于数据块内迭代的增量学习方法
        6.2.3 Ensemble Training方法
        6.2.4 使用联合隐马尔可夫模型的ET方法
    6.3 实验与评估
    6.4 本章小结
第七章 总结和展望
    7.1 本文主要工作总结
    7.2 下一步工作展望
致谢
参考文献
作者在学期间取得的学术成果

四、一个面向网络并行环境的需求规约语言(论文参考文献)

  • [1]云计算系统的形式化建模与验证方法研究[D]. 周文博. 吉林大学, 2021(01)
  • [2]面向自主船舶的危险分析方法研究[D]. 周翔宇. 大连海事大学, 2020(04)
  • [3]分布式与自动化大数据智能分析算法与编程计算平台[D]. 朱光辉. 南京大学, 2020(12)
  • [4]基于标记的跨平台并行编程框架设计与实现[D]. 唐佩佳. 中国科学技术大学, 2020(02)
  • [5]支持深度学习算子并行算法调优的ParaC编译器研究[D]. 尹慧. 山东科技大学, 2020(06)
  • [6]基于最小生成树的高分辨率遥感影像层次化分割方法研究[D]. 林文杰. 辽宁工程技术大学, 2020(01)
  • [7]面向未来无线通信的MIMO检测预处理算法及硬件结构研究[D]. 陈礼锐. 国防科技大学, 2020(01)
  • [8]面向开放式地理模拟的计算资源适配与调度方法研究[D]. 王明. 南京师范大学, 2020
  • [9]面向不确定环境场景规约的定量时间分析研究[D]. 段文雪. 华东师范大学, 2020(10)
  • [10]面向不确定环境的运行时验证关键技术研究[D]. 周戈. 国防科技大学, 2020(01)

标签:;  ;  ;  ;  ;  

一种网络并行环境的需求规范语言
下载Doc文档

猜你喜欢