论文笔记:基于图注意力网络的多变量时间序列异常检测Multivariate Time |
您所在的位置:网站首页 › 多维时间序列异常检测 › 论文笔记:基于图注意力网络的多变量时间序列异常检测Multivariate Time |
最近刚开始读时间序列异常检测相关的论文,因此本文包含了很多论文中用到方法的背景知识。但本人功力尚浅,有很多介绍不清楚的地方,欢迎大家留言批评指正。 Multivariate Time-series Anomaly Detection via Graph Attention Network是来自ICDM2020的文章,本文提出了一种多变量时间序列异常检测的自监督框架。本文亮点有两个: 面向特征和面向时间的图注意力层: 作者将每个单变量时间序列视为一个单独的特征。利用了两个图注意力层,学习多变量时间序列在时间和特征维度上的复杂依赖关系(如下图,学习了时间戳n和特征k维度的相关关系)。面向特征的图注意力层捕获了多个特征之间的关系,而面向时间的图注意力层强调了沿时间维度的依赖关系。 联合训练基于预测的模型和基于重建的模型: 基于预测的模型善于捕捉时间序列的周期性信息,基于重建的模型善于捕获时间序列的全局数据分布。本文通过实验证明了它们是互补的。![]() 高效和准确的时间序列异常检测有助于公司持续监控其关键指标,并及时对潜在事件发出警报。可以将多变量时间序列看作一个矩阵: 本文结合了基于预测的模型和基于重构的模型。因此从这两方面来介绍。 多变量异常检测–基于预测的模型 LSTM-NDT(KDD2018)提出了一种无监督的方法由LSTM网络生成预测。用LSTM学习时序数据做预测。预测每个单通道的值,收集每一步误差构成误差向量,对误差作加权平均的平滑处理,根据平滑后的数据计算阈值,高于阈值的标为异常样本。
GRU是对LSTM的改进。LSTM有三个门函数:输入门、遗忘门和输出门。GRU两个门函数:更新门和重置门。更新门用于控制前一时刻的状态信息被带入到当前状态中的程度,更新门的值越大说明前一时刻的状态信息带入越多。重置门控制前一状态有多少信息被写入到当前的候选集上,重置门越小,前一状态的信息被写入的越少。 GRU的参数更少,因而训练稍快,需要更少的数据来泛化。 VAE为变分自编码器。希望构建一个从隐变量 Z 生成目标数据 X 的模型。是在自编码器基础上的。举个例子来了解什么是变分自编码。例子来源:http://www.atyun.com/17976.html 假设任何人像图片都可以由表情、肤色、性别、发型等几个特征的取值来唯一确定。 |
今日新闻 |
点击排行 |
|
推荐新闻 |
图片新闻 |
|
专题文章 |
CopyRight 2018-2019 实验室设备网 版权所有 win10的实时保护怎么永久关闭 |