- Author: MaXiao
- E-Mail: [email protected]
- 备注: 若文档无法正常显示图片,请参考右方链接: github图片不显示的问题
- 算法论文: Isolation Forest [Liu et.al, 2008]
- 算法解析: Isolation Forest算法解析
- 算法应用: isolationforest.py
-
方法1:基于样本的重构误差
-
算法论文: AI^2 : Training a big data machine to defend [Veeramachaneni et.al, 2016]
-
算法解析: Chapter 1:基于样本的重构误差
-
算法实现
- 基于KernelPCA重构误差的异常检测: recon_error_kpca.py
- 基于LinearPCA重构误差的异常检测: recon_error_pca.py
- 只调用Numpy实现LinearPCA异常检测: recon_error_pca_svd.py
- 不调用scikit-learn,只调用Numpy,通过矩阵的奇异值分解(SVD)实现PCA,再进行异常检测
- 返回结果与recon_error_pca.py完全一致
-
-
方法2:基于样本在Major/Minor主成分上的偏差
-
算法论文: A Novel Anomaly Detection Scheme Based on Principal Component [Shyu et.al, 2003]
-
算法实现: robustpcc.py
-
术语定义
- major_eigen_vectors:将特征值降序排列后,累计之和占比约50%的前若干个特征值对应的特征向量
- refers to the eigenvectors corresponding to the first few eigenvalues whose cumulative eigenvalues account for about 50% after the eigenvalues are arranged in descending order
- minor_eigen_vectors:特征值小于0.2对应的特征向量
- refers to the eigenvectors corresponding to the eigenvalue less than 0.2
- major_eigen_vectors:将特征值降序排列后,累计之和占比约50%的前若干个特征值对应的特征向量
-
-
实证分析: 异常样本在最前、最后的若干主成分上具有最大的方差
-
验证代码: max_ev_decrease.py
-
验证结果:
- Multiple random data sets prove that abnormal samples have the maximum variance on the first and last principal components.
-
算法解析:
- Mahalanobis Distance
- Mahalanobis Distance's Variant
- In fact, the square of Mahalanobis distance is equal to the variation of Mahalanobis distance.
-
算法实现:
- 马氏距离的初始定义实现: mahal_dist.py
- 马氏距离的变体实现: mahal_dist_variant.py
-
实证分析:
-
结论: 马氏距离的平方等于马氏距离的变体
- Conclusion: the square of Mahalanobis distance is equal to the variation of Mahalanobis distance
-
推论: 马氏距离及其变体对样本的异常程度有一致的判定
- Inference: Mahalanobis distance and its variants are consistent in determining the abnormal degree of the sample
-
验证结果:
-
- 算法论文: LOF:Identifying Density-Based Local Outliers
- 算法解析: Local Outlier Factor算法解析
- 算法应用: lof.py
- 步骤一: 生成一系列随机数据集,每个数据集的行数(row)、列数(col)、污染率(contamination)均从某区间内随机抽取
- 步骤二: 各个无监督异常检测算法根据指定的contamination返回异常样本的索引(anomalies_indices)
- 步骤三: 确定baseline
- 如果数据集中异常样本的索引已知(记为observed_anomaly_indices),则以此作为baseline
- 如果数据集中异常样本的索引未知,则以Isolation Forest返回的异常样本索引作为baseline
- 步骤四: 确定性能评判标准
- 若异常样本的索引已知(记为observed_anomaly_indices),则以F1-Score作为评判标准
- 若异常样本的索引未知,则比较算法预测的异常样本索引与baseline的共同索引个数,个数越多则认为效果相对越好
- 步骤五: 不同的数据集对异常检测算法的性能可能会有不同的评估,因此可生成多个数据集来判定各算法的性能
- Python代码: unsupervised_detection_contrast.py (Jupyter交互式运行代码能更直观地展示验证过程)
- RobustPCC重点考察了样本在major/minor Principal Component上的偏差,论文作者认为异常样本在主成分空间内的投影主要集中在上述两类主成分上
- RobustPCC在构建过程中,需要通过马氏距离(变体)检测并剔除数据集中一定比例(gamma)的潜在异常样本,以保证RobustPCC的有效性
- RobustPCC需要根据指定的分位点参数(quantile)来设定样本异常与否的阈值,个人在实验中适度增大了gamma、quantile的取值,进一步降低FPR,提升鲁棒性
- 实验结果表明,RobustPCC具有优良的异常检测性能
- Recon_Error_KPCA引入核函数(对比实验取Linear、RBF),无需显式定义映射函数,通过Kernel Trick计算样本在高维特征空间(希尔伯特空间)内的重构误差;
- KernelPCA的核函数需要根据数据集进行调整,在核函数适宜的情况下,高维(或无穷维)主成分空间对样本具有更强的表出能力
- 低维空间内线性不可分的异常样本在高维空间内的投影将显著区别于正常样本;
- 相应地,异常样本在高维(或无穷维)主成分空间内的重构误差将明显区分于正常样本;
- Isolation Forest(孤立森林)表现稳定,在验证数据的异常索引未知情况下,个人将其预测值作为baseline,用于衡量其它算法的性能
- Mahalabonas Distance(马氏距离)实际上考虑了样本在所有主成分上的偏离度,检测性能紧跟Recon_Error_KPCA之后
- LOF考虑了局部相邻密度,它存在一定的局限性:对于相关性结构较特殊的异常样本(anomalies in terms of different correlation structures)的检测能力不足
- 上述实验结论受到实验数据集的样本构成、样本数量等多方面因素的影响,不一定具备普适性
- 在实际运用中,需要根据数据集本身的特点予以灵活选择相应的异常检测算法
-
算法论文: Anomaly Detection with Partially Observed Anomalies [Zhang et.al]
-
算法解读: ADOA算法解读
-
算法实现: adoa.py 【其中包含:用于返回聚类中心子模块 cluster_centers.py】
-
思路简介
- ADOA采用孤立森林与聚类相结合,KADOA运用KernelPCA重构误差替代孤立森林进行异常检测,其它思路与ADOA一致
-
KADOA代码
-
KADOA与ADOA的性能对比
- 对比代码: compare_adoa_kadoa.py
- 对比结果: 在数据集、参数设置完全一致的情况下,KADOA的性能显著优于ADOA,但此结论有待更多数据集予以验证
1) PU Learning三大处理方法:PU Learning三大处理方法详细解读
-
方法一:Two step techniques
- 第一步: 从U集中筛选可靠负样本RN(identifying reliable negative examples)
- 第二步: 基于已知正样本P、可靠负样本RN训练分类器(learning based on the labeled positives and reliable negatives)
-
方法二:Biased Learning
-
方法三:Class Prior Incorporation
-
思路一:Two Step Strategy + Cost-Sensitive Learning
-
算法论文: POSTER_ A PU Learning based System for Potential Malicious URL Detection [Zhang et.al]
-
算法解读: Two Step Strategy与 Cost-Sensitive Learning的结合
- Two Step Strategy: Two Step Strategy详解
- Cost-Sensitive Learning: Cost-Sensitive Learning详解
-
算法实现: pu_learning.py
-
对sample_ratio的研究: sample_ratio
-
-
思路二:Biased Learning
-
思路三:Class Prior Incorporation
- 算法一:ADOA
- 算法二:Biased SVM
- 算法三:Weighted LR
- 算法四:PU Learning + Cost-Sensitive Learning
-
选取的模型评估指标: AUC、F1_Score、Coverage、G-Mean、Recall、ACC
-
Coverage详解
-
代码实现: coverage.py
-
G-Mean
-
对比思路:
-
步骤一: 生成一系列随机数据集,其中包含已观察到的异常样本集(记为正样本集P),无标签样本集(记为U)
-
步骤二: 各个半监督异常检测算法对U集进行预测并返回预测值y_pred
-
步骤三: 生成U集时,其真实标签y_true是已知的,根据y_true、y_pred计算半监督异常检测算法的性能
-
步骤四: 不同的模型评估指标、不同的数据集对算法的性能有不同的评估,因此根据多个随机数据返回多个模型评估指标对应的值,再进行比较
-