欢迎来到知嘟嘟! 联系电话:13336804447 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13336804447
知嘟嘟经纪人
收藏
专利号: 2022106874418
申请人: 杭州电子科技大学
专利类型:发明专利
专利状态:已下证
专利领域: 计算;推算;计数
更新日期:2024-01-05
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.双向自回归无监督预训练微调式排污异常监控方法,其特征在于,包括以下步骤:

S1:采集数据:

多通道采集和传输模块周期性地采集污染源排放口的以下数据:压力、流速、温度、密度;得到原始多维时间序列样本,传输到数据处理模块;

S2:对原始多维时间序列样本进行预处理:

使用基于掩码Mask的方法,对数据处理模块得到的数据进行去噪和插值操作;

S3:对预处理后的多维时间序列样本进行重采样:

将某段时间序列进行伸缩变换,再以滑动窗口的模式进行重采样,以设定的时间间隔提取原样本,提取设定尺度的多维时间序列特征;

S4:构建包括数据重采样增强、编码器、解码器三个部分的模型并进行预训练;

S5:对预训练后的模型进行小样本微调和序列点分类:首先随机在由一长串多维时间序列构成的数据集中抽取10%的连续序列作为样本,重复S4中的训练过程,在下游任务中做小样本的微调Fine tuningbatch

小样本微调的具体步骤如下:输入为预处理后的原始多维时间序列X′in∈R_size×input_window×in_dim,其中batch_size为训练批次大小,input_window表示序列长度,即预处理过程中的滑动窗口宽度,in_dim表示样本的维度;

经过编码器和解码器重建序列得到 求得每个时

间点的loss,通过K‑means聚类方法对序列点进行分类,具体步骤如下:(1)首先设置参数K,K的含义为将数据聚合成几类,这里取K=2;

(2)从数据当中,随机的选择两个点,成为聚类初始中心点;

(3)计算所有其他点到这两个点的距离,然后找出离每个数据点最近的中心点,将该点划分到这个中心点所代表的的簇当中去;那么所有点都会被划分到两个簇当中去;

(4)重新计算两个簇的质心,作为下一次聚类的中心点;

(5)重复上面的(3)‑(4)步的过程,重新进行聚类,不断迭代重复这个过程;

(6)当重新聚类后,所有样本点归属类别都没有发生变化的时候停止;

最后可以得到两类样本,样本数量少的一类即为异常;

S6:利用步骤S5得到的模型进行排污异常监控。

2.如权利要求1所述的双向自回归无监督预训练微调式排污异常监控方法,其特征在于,所述步骤S1中,所述多通道采集和传输模块采集数据的步骤包括:初始化、读取一次串口中断数据、数据打包发送,所述初始化步骤包括:对ESP8266芯片运行环境进行初始化配置;

所述读取一次串口中断数据的步骤,具体包括以下步骤:设置临时储存串口中断数据的数据类型为32位机的unsigned int型,数据长度即为16bits,串口中断实时更新数据,并在固定时间中断中进行二次滤波;

所述数据打包发送的具体步骤为:通过ESP8266芯片将读取的十六位数据打断,分成前八位与后八位,以0x03、~0x03为数据针头,~0x03、0x03为数据针尾,将以上数据打包,最后以字符形式,使用ESP8266芯片以无线热点方式,通过网络传输到数据处理模块。

3.如权利要求2所述的双向自回归无监督预训练微调式排污异常监控方法,其特征在于,所述步骤S2中,所述基于掩码Mask的方法具体为:取来一段完整的时间序列作为样本,随机遮盖掉其中的10%,利用卡尔曼滤波算法对其进行还原。

4.如权利要求3所述的双向自回归无监督预训练微调式排污异常监控方法,其特征在于,所述步骤S4具体包括以下子步骤:S4.1:使用噪声函数破坏序列:

使用Token Masking、Token Deletion、Text Infilling、Sentence Permutation、Document Rotation五种噪声函数中的任一种或多种组合,破坏S3步骤得到的时间序列;

S4.2:构建编码器网络骨架部分:

选用自注意力层和MLP网络作为骨干网络,迭代12次构成编码器;

将多维时间序列进行标准化,消除量纲的影响,

使用位置编码PE,为多维时间序列加入位置信息

pos指不同的时间点位置,2i和2i+1分别对应某个时间点的不同维度指标,奇数维度利用sin正弦编码,偶数维度利用cos余弦编码,dmodel指数据的总维度,这里是防止10000的指数过大而溢出;

利用三个线性层生成Q,K,V三个矩阵,并且使用Q去访问每一个K,经过缩放和softmax,先转化为以e为底的指数,而后做归一化处理:归一化处理后作为V的权重,从而计算Attention值用于后续的MLP层和解码器进行序列重建:引入多头机制以适应更高维度的时间序列信息:

MultiHead(Q,K,V)=[head1,...,headh]W0Q K V

whereheadi=Attention(QWi,KWi,VWi)其中h为注意力头数量,使用多头注意力时必须确保输入维度的大小必须能被注意力头数量整除,将输入维度分成h组,每组特征具有自己的注意力体系;

S4.3:构建解码器部分:

由多头自注意力层和MLP层作为网络骨架,经过一次堆叠后,利用交叉多头注意力聚合操作Cross Attention与编码器最后一层的隐藏状态结果进行注意力聚合计算,而后进行多次自注意力层MLP层的堆叠;

取编码器中自注意力机制得到的K,V与解码器中训练得到的Q进行聚合计算,并采用Layer Normalization方法在每层MLP后加上标准化层,其中H是一层中隐层节点的数量,ll l是MLP的层数,我们可以计算Layer Normalization的归一化统计量u和σ:l l l

其中a 为输入的多维时间序列,统计量μ和σ的计算,与样本数量没有关系,而只取决于隐层节点的数量,只要隐层节点的数量足够多,就能保证Layer Normalization的归一化统计量足够具l l有代表性,经过l层MLP后输出的数据为 i表示维度,记作in_dim,通过μ和σ可以得到归一化后的值 其中∈取1e‑5,防止除0;

以自回归的方式对被破坏的时间序列进行复原重建;复原重建程度通过动态时间规整指标来评估;

所述动态时间规整指标的计算方式为:把两个时间序列进行对齐后,求算出一个差异矩阵,目标是在矩阵中找到一条从(0,0)到(n,n)的路径,使得该路径上的元素的累加欧拉距离最小,该最小路径为Wraping path,即为动态时间规整指标,用于表示两个时间序列的相似度:构造一个n×n的矩阵,矩阵的(ith,jth)元素是点qi和cj之间的欧几里德距离d(qi,cj);

Wraping path定义了时序Q和C之间的映射,记作P,是一组连续的矩阵元素,P的第th个元素定义为pt=d(qi,cj)t,其中P=p1,p2,...,pT,n≤T≤2n‑1,本质上是通过一个动态规划的方法来求得的:dij=d(xi,yj)

D(i,j)=dij+min(D(i‑1,j),D(i,j‑1),D(i‑1,j‑1)}其中,D(i‑1,j)表示xi‑1与yj匹配时的子序列距离,D(i,j‑1)表示xi与yj‑1匹配时的子序列距离,D(i‑1,j‑1)表示xi‑1与yj‑1匹配时的子序列距离;

在多变量时间序列中,xi和yj都是in_dim维的向量,而且xi中的元素是时刻i下变量的值,yj中的元素是时刻j下变量的值,d(xi,yj)即是i时刻的xi和j时刻的yj对齐时的距离;向量xi和yj之间的距离计算方式d(xi,yj)可以通过欧氏距离或者马氏距离来计算;

欧氏距离:

T

对于一个均值为μ=(μ1,μ2,μ3,...,μp) ,协方差矩阵为S的多变量x=(x1,x2,x3,...,Txp) ,马氏距离为:

其与欧氏距离不同的是它考虑到各种特性之间的联系,并且是尺度无关的(Scale‑invariant),即独立于测量尺度;

S4.4:预训练过程为:

对采集到的数据进行重采样,作为原序列,而后对原序列进行序列破坏,而后将其传入模型做前向推理Forward,经过编码器和解码器处理,得到一个新序列,记该序列为原序列的重建序列;

利用动态时间规整指标来衡量原序列与其重建序列之间的相似度,记作DTW,构造损失函数:计算得到重建前后损失后,进行反向传播,更新模型参数,使得损失越来越小直至收敛到损失不再下降,在此过程中模型逐渐学习多维时间序列中的特征,做到自动提取特征的功能,此为预训练过程,最终得到一个具有序列提取能力的预训练模型,供之后下游任务的使用。

5.如权利要求4所述的双向自回归无监督预训练微调式排污异常监控方法在可视化大屏管理平台上的应用,其特征在于,所述可视化大屏管理平台的硬件部分包括:多通道采集和传输模块、数据处理模块,所述多通道采集和传输模块包括:压力传感器、流速计、温度计以及密度检测计,上述传感器设置于待监控的污染源排放口,数据处理模块的前端,基于react框架开发,使用axios与后端进行交互获取分析后的排污数据,并引入DataV和AntV进行排污异常数据可视化;

数据处理模块的后端,基于Golang开发,包括Gin和GORM框架;

数据处理模块的编码,通过编写Dockerfile,生成Docker镜像,进行多平台迁移运行;

所述可视化大屏管理平台包括“政府”、“企业”、“个人”三个视角。