基于改进狼群算法 您所在的位置:网站首页 旋风分离器分离效率计算方法 基于改进狼群算法

基于改进狼群算法

2023-08-19 08:03| 来源: 网络整理| 查看: 265

引言

天然气在输送过程中,气体中常夹带粉尘、颗粒、腐蚀产物、轻烃、游离水等物质,这些杂质会对燃气轮机、压缩机组、管道仪表等设备的运行产生影响,因此有必要采用过滤和分离设备对天然气中的固液杂质进行处理[1-2]。目前,输气站场上多采用切向入口式多管旋风分离器,其压降和分离效率是评价旋风分离器性能的主要参数,也是确定后续压缩机组设计的重要依据[3]。旋风分离器的压降模型主要分为半经验模型、统计模型和计算流体力学(CFD)模型3类[4-5]。半经验模型以Shepherd-Lapple模型[6]、Alexander模型[7]、Barth模型[8]等为主,这些模型均在旋风分离器内部流场和能量耗散的基础上建立平衡方程,为了计算方便,使用了不同程度的假设和简化处理,部分数据在计算精度上与实验值差距较大;统计模型是通过大量的实验数据对压降进行多元回归,以Casal模型[9]、Dirgo模型[10]等为主,但该方法很难找到合适的拟合函数来回归实验数据,在预测过程中易出现过拟合或欠拟合;CFD模型使用Fluent建模对旋风分离器内部的压降进行预测[11-13],计算结果可靠度较高,但步骤复杂、不易掌握。

随着人工智能的发展,部分学者开始利用机器学习的方式预测压降。Zhao[14]通过训练不同的神经网络模型来预测旋风分离器压降与几何参数之间的非线性关系,但未针对模型参数进行选取;Elsayed等[15]采用最小二乘支持向量机对旋风分离器压降进行预测,但该模型在测试集上的泛化性能较差;王兆熙等[16]采用粒子群算法(particle swarm optimization,PSO)优化极限学习机(extreme learning machine,ELM)对压降进行了预测,但ELM本质上属于浅层神经网络,在解决弱条件约束的问题上性能难以进一步增强。深度学习算法中的深度置信网络(deep belief network,DBN)是机器学习的前沿技术,具有强大的特征自提取能力,在处理高维、非线性数据上具有较强的优势,且预测精度和泛化能力也优于传统浅层机器学习,在管道风险评价[17]、滴流床持液量预测[18]、原油闪点预测[19]等方面均有应用。但在预训练阶段,DBN模型各节点连接权重和偏置通过随机初始化产生,会使模型在训练过程中陷入局部最优解,并增加训练时间,因此需预先优化各节点的初始化参数。狼群算法(grey wolf optimizer,GWO)由Mirjalili等[20]在2014年提出,属于一种较新的仿生学算法,具有收敛性能强、可调参数少、容易实现等优点[21]。文献[20]在29个已知的测试函数上对算法进行了基准测试,并与PSO算法、万有引力算法(gravitation search algorithm,GSA)、差分进化算法(differential evolution,DE)、进化规划算法(evolutionary programming,EP)等进行对比,验证了GWO算法在搜索最优解上的优势。但GWO算法仍存在种群多样性差、后期收敛慢的缺陷,这与其初始化种群方式和搜索机制有关。基于此,本文采用DBN模型对旋风分离器压降数据进行预测,利用改进的狼群算法(improved grey wolf optimizer,IGWO)选取DBN模型的最优初始化权重和偏置参数,形成IGWO-DBN组合模型,并与其余常见模型的预测结果进行对比,为旋风分离器结构设计和优化提供实际参考。

1 IGWO-DBN模型 1.1 DBN模型

DBN模型包括生成模型和判别模型[22]:前者由多个受限的玻尔兹曼单元(restricted Boltzmann machine,RBM)组成,一个RBM由1个可视层和隐含层组成,层与层之间采用全连接,每个神经元节点满足随机二值分布,即只有0和1两种状态,由多个RBM通过无监督学习完成逐层预训练过程;后者由有监督学习功能的反向传播神经网络(back propagation neural network,BPNN)完成误差反向微调,实现数据的回归或分类。3个RBM结构的DBN模型如图 1所示。

图 1(Fig. 1) 图 1 DBN模型网络结构 Fig.1 Network structure of the DBN model

RBM是基于能量生成的随机概率模型,可通过图模型描述变量间的相互作用关系[23]。设可视层各神经元节点状态为v={v1,v2,…, vn},隐含层各神经元节点状态为h={h1,h2,…, hm},则RBM的能量函数为

$ \begin{array}{l} \;\;\;\;\;\;\;\;\;E(v, h \mid \theta)=-\sum\limits_{i=1}^n a_i v_i-\sum\limits_{j=1}^m b_j h_j- \\ \sum\limits_{i=1}^n \sum\limits_{j=1}^m h_j w_{i j} v_i \end{array} $ (1)

式中,θ={wij, ai, bj},wij为可视层与隐含层之间的连接权重,ai、bj分别为可视层和隐含层的节点偏置。对能量函数进行正则化处理,则可视层和隐含层的联合概率分布为

$ P(v, h \mid \theta)=\frac{1}{Z(\theta)} \mathrm{e}^{-E(v, h \mid \theta)} $ (2) $ Z(\theta)=\sum\limits_{v, h} \mathrm{e}^{-E(v, h \mid \theta)} $ (3)

由于RBM模型层内无连接,当可视层状态确定时,隐含层各节点的激活概率条件独立;反之亦然。

训练RBM是利用对比散度(CD)的方式迭代求解参数θ={wij, ai, bj},从底层RBM开始,自下而上逐层训练,前一个RBM的输出作为后一个RBM的输入。预训练完成后,各层RBM得到最优的初始化参数,随后采用有标签的样本进行训练,利用反向传播自上而下对各层参数微调,从而确定最终模型。

1.2 改进的狼群算法

狼作为群居动物,狼群内部执行严格的等级制度,设自上而下分为α、β、γ和δ狼,其中α狼的位置为最优解,余下依次为β、γ和δ狼的位置。该算法分为搜索和围捕猎物两个阶段[24],数学模型为

$ \left\{\begin{array}{l} \boldsymbol{X}(t+1)=\boldsymbol{X}_p(t)-\boldsymbol{A} \circ \boldsymbol{D} \\ \boldsymbol{D}=\boldsymbol{C} \circ \boldsymbol{X}_p(t)-\boldsymbol{X}(t) \\ \boldsymbol{A}=2 e \circ r _1-e \\ \boldsymbol{C}=2 r_2 \\ e=2-t \frac{2}{t_{\max }} \end{array}\right. $ (4)

式中,t为当前迭代次数;tmax为最大迭代次数;X(t)为当前狼的位置向量;Xp为猎物的位置向量;AC均为协同系数向量;e为收敛因子,遵循线性过程从2变化到0;r1、r2为[0, 1]的随机数。根据不同等级狼的位置来更新个体位置,当|A|>1时,狼群分散在各个区域进行搜索;当|A|≤1时,狼群集中在某个区域进行搜索。

标准GWO算法采用随机初始化方式确定种群初始位置,这种方式可能会使狼群搜索的范围过大,搜索时间过长,因此引入对立搜索计策[25],即当对立个体适应度值优于原个体适应度值时,则选用对立个体,反之采用原个体,具体公式为

$ \boldsymbol{X}^{\prime}=L_{\mathrm{b}}+U_{\mathrm{b}}-\boldsymbol{X} $ (5)

式中,X′为对立个体的位置向量;Lb、Ub分别为原个体X的上下限阈值。此外,根据式(4)可知,收敛因子e决定了搜索的空间和范围。在迭代过程中,若前期搜索范围大,应降低e的递减速度,而后期为改进局部寻优过程,应加大e的递减速度,故引入余弦函数对e进行更新,最终形成改进的GWO算法。

$ e= \begin{cases}e_{\max } \cdot \frac{1+\left[\cos \left(t \pi / t_{\max }\right)\right]^z}{2}, & t \leqslant \frac{1}{2} t_{\max } \\ e_{\max } \cdot \frac{1-\left[\cos \left(t \pi / t_{\max }\right)\right]^z}{2}, & \frac{1}{2} t_{\max }


【本文地址】

公司简介

联系我们

今日新闻

    推荐新闻

    专题文章
      CopyRight 2018-2019 实验室设备网 版权所有