天天看点

SLS机器学习服务最佳实践:流式智能巡检

一、背景

异常检测是智能运维系统中的很重要的一环,在云上针对各个服务时序指标的巡检成为监控服务质量的重要手段。在云平台上,系统和服务的指标项太多、时序形态丰富、异常类型难以枚举,单单的依靠人工规则来做异常发现很达到预期效果;同时,现有的巡检方法多采用SQL发起机器学习函数的方式,拉取部分数据做模型训练,输出结果,在海量的指标数据下反应延迟,成本昂贵,很难充分学习数据的特征而达到很好的效果。

SLS团队,对现有的机器学习方法改进提升,采用流式学习的方式,将机器学习函数变为智能化的机器学习服务,让模型在历史数据流上不断记忆,充分学习样本特征,实时反馈,更进一步降低用户的使用门槛。大家只需发起服务,配置一定的告警阈值,即可实现对指标数据的实时智能巡检。

二、实际业务痛点

  • 指标太多
  • 监控对象太多
  • 阈值参数太多
  • ...

在时序监控场景中,用户往往先确定监控对象,并通过其历史数据,结合业务经验,得到不同组的阈值参数,通过各种手段(同比、环比、连续触发几次等)进行监控,往往一个监控对象要设计4~5条监控规则,并配置不同的参数。还有更大的问题,各个参数阈值无法快速的复用到不同的类似观测对象中,当观测对象的规模达到数千,甚至上万后,传统的配置效率底下,无法满足在大规则时序指标数据下的监控需求。流式算法具有天然的优势可以解决上面的问题,用户只需要发起一个机器学习服务,模型自动拉取数据,实时训练,实时反馈(通俗地说:“来一个点,学习一个点,检测一个点”),在极大的降低成本的同时,实现对每一条线的单独建模,单独分析,单独模型参数保存,实现时序异常检测的“千线千面”。

SQL请求式智能巡检

SLS机器学习服务最佳实践:流式智能巡检

服务化流式智能巡检

SLS机器学习服务最佳实践:流式智能巡检

我们利用Logtail去采集K8S宿主机的秒级指标数据,将数据写入到SLS中去,利用人工经验对这份数据的聚合和采样后,提取出如下8个黄金指标,配置分钟粒度的流式告警。

观测指标 指标名称
系统态CPU使用百分比 cpu_sys
CPU空闲时IO请求时间 cpu_iowait
用户态CPU使用百分比 cpu_user
内存使用情况 mem_usage
存储空间使用情况 disk_usage
使用的文件描述符的个数 fd
网络包重传数量 retrans
系统负载 load

三、功能介绍

SLS团队结合目前国际主流的流式异常检测算法,包括RRCF、HTM、Skyline等流式算法,Time2Graph等最新时序建模方法,自研三大流式巡检功能,提供给大家使用。下面给大家做详细介绍,具体可以参考

SLS官方文档
流式统计算法异常检测
流式树算法异常检测
流式图算法异常检测           

三种功能分别采用不同类型的算法,对指标时序进行异常检测:

  1. 流式统计算法异常检测主要采用核密度估计等统计学习算法
  2. 流式树算法异常检测主要采用RRCF等树(森林)学习算法
  3. 流式图算法异常检测主要采用Time2Graph等图学习算法

以上三种方法可以针对不同类型的时序异常进行检测,包括:

时序变点异常

SLS机器学习服务最佳实践:流式智能巡检

时序折点异

SLS机器学习服务最佳实践:流式智能巡检

时序周期异常

SLS机器学习服务最佳实践:流式智能巡检

不同的算法功能对不同的异常类型各有擅长,具体如下表所示:

变点异常 折点异常 周期异常
流式统计算法异常检测
流式树算法异常检测
流式图算法异常检测

大家可以根据自己数据的形态,选择相应的功能进行时序智能巡检。有关算法的具体原理可以参考之前的文章,大家也可以去网上查阅相关资料自行阅读。接下来主要给大家介绍下在SLS中该怎么使用这些功能。

接下来主要给大家介绍下在SLS中该怎么使用这些功能。

四、案例实战

我们以一个K8S集群的机器指标数据的案例作为例子,描述如何使用SLS机器学习服务进行指标数据的智能巡检。

4.1 数据导入

我们拉取监控中的机器指标数据,具体的操作步骤可参考:

《在SLS中时序指标数据的巡检》

接入数据后,我们可以得到一个按照固定的频率写入SLS中的LogStore的数据,我们可以订阅这个LogStore的数据,并告知算法该数据的Schema,选择需要的检测算法,就可以完成针对数据中的实例(比如:访问日志中的域名、机器指标数据中的机器)进行巡检。

  • 以K8S监控数据为例,一个数据写入的Agent(比如:Python SDK)按照一个固定的频率(60秒)将200多台机器的多维度指标分别写入到LogStore中去,如下图中所展示的:每隔60秒,将每台机器的各种指标,按照[Region, Machine, Index_name, Value]的方式写入到LogStore中;
SLS机器学习服务最佳实践:流式智能巡检
  • 这里每条日志的格式为:
SLS机器学习服务最佳实践:流式智能巡检

这里,

region

 表示一个集群,

machine

 表示一台机器,

index_name

 表示一个指标,这里我们对8种常用的指标进行监控和分析,包括CPU、内存、负载、网络流量等。

value

 表示具体的指标数值。

  • 我们把要进行分析的字段加上索引,开启统计:
SLS机器学习服务最佳实践:流式智能巡检

4.2 参数配置,发起服务

当指标数据接入成功之后,我们可以开启机器学习服务对时序数据进行智能巡检

4.2.1 打开数据加工

  • 我们开启 “数据加工”模式,经过如下截图中的操作步骤
SLS机器学习服务最佳实践:流式智能巡检
  • 来到创建数据加工规则的界面,我们要保证填写的AK信息具有对当前LogStore具有可读且能创建消费组的权限,具体操作,请参考 《RAM自定义授权场景》 ;同时在存储目标中,目前仅支持写入到本Project下面,已将创建好的LogStore中,且存储目标中的AK要具有写入权限
SLS机器学习服务最佳实践:流式智能巡检
  • 下一步,选择“加工范围”,这里的加工范围所对应的时间是数据达到服务器端的时间,接着就到了模型参数配置部分,针对各个参数的含义我们做一个介绍:
    • 时间列:表示某条日志的时间戳,单位为秒;一般选择

      __time__

       这个字段
    • 时间粒度:表示数据写入的频率,这里要求数据对象写入LogStore的频率一致。在这个案例里是60秒
    • 实例列:表示能唯一标记巡检对象的字段,要求是text文本列,可多选。这个案例里是

      region

      machine

      index_name

       ,对应了某地区某机器下的某指标。
    • 特征列:表示某巡检对象所对应的特征,要求为数值列,可多选。这个案例里是

      value

       ,即具体的指标数值。
SLS机器学习服务最佳实践:流式智能巡检

之后就可以选择相应的算法功能进行异常检测。

4.2.2 配置模型

SLS机器学习服务最佳实践:流式智能巡检

模型参数配置如上图所示,所有的操作为可视化操作。大家输入好对应的选项,选择具体要使用的模型,便可以开启机器学习服务。不同模型的参数具体参考

官方文档

我们以流式图算法异常检测作为例子来发起机器学习服务。具体的数据形式

SLS机器学习服务最佳实践:流式智能巡检

时间列是

__time__

 ,数据是每隔60s采集一个点,从

region - machine - index_name

 唯一确定了一条指标时序(地区-机器-指标),其值是

value

 。这里,如果大家知道所要巡检数据的上下界,可以直接填入,当数据超出边界时,会直接判断为异常;若大家不明确,这里可以不填。

我们选择

流式图算法异常检测

 这个模型,这里有三个参数需要我们填写:时间粒度是60秒,算法检测间隔与时间粒度一致,即来一个点检测一个点。流式图算法异常检测采用Time2Graph算法,数值默认划分为5段。这里,分成多少段大家可以根据自己的巡检需求来进行设定,一般,分段越少,模型对异常越不敏感,报出的异常点就越少;分段越多反之。周期长度默认长度2880个点,即在60秒采集一个点的情况下,周期长度为48小时;大家如果知道数据明确的周期长度,可以更改。

其他模型的参数配置基本类似,大家可以参考

。以上,参数配置好后,我们便可以发起机器学习服务,对指标数据进行巡检。那么,我们如何看到巡检的结果呢,接下来我们将以SLS的Dashbord功能为例,帮助大家直观的看到模型巡检的结果。

4.3 Join结果,DashBoard可视化

当服务发起后,没过一个检测间隔,算法便会将结果写入到大家制定的存储目标下,如下面的例子:

SLS机器学习服务最佳实践:流式智能巡检

结果的

__time__

 与来源指标数据的

__time__

 保持一致。写出结果中,包含了能指示一条时序的

entity

 信息,数据来源的

meta

 信息,以及模型判断的

result

 信息。

result

 中包含了模型判断的是否异常的flag

is_anomaly

 ,是以

score

 大于一定阈值筛选出的异常点。

之后,通过 Join 指标数据的LogStore与结果输出的 LogStore,我们可以将异常结果打标到时序曲线中。首先我们开启结果输出的LogStore的索引:

SLS机器学习服务最佳实践:流式智能巡检

SQL join 的案例如下:

  • 过滤出某地区某机器的某指标异常检测结果(这里目标写入的LogStore为

    ml-detector-res

     )
* | select time, score, index_name, machine, region from
(select time, cast(score as double) as score, index_name, machine, region from(
    (select __time__ as time, 
           json_extract_scalar(result, '$.score') as score, 
           json_extract_scalar(entity, '$.index_name') as index_name, 
           json_extract_scalar(entity, '$.machine') as machine, 
           json_extract_scalar(entity, '$.region') as region, 
           job_name from ml-detector-res) 
    HAVING score > 0.75) where region = 'aysls-pub-cn-beijing-k8s' and 
                               machine = '192.168.***.***:***' and 
                               index_name = 'mem_usage'           

这里,0.75是一个异常分数阈值,代表着模型判断出的异常程度,大家可以自行设定

  • 在原指标数据LogStore中过滤出对应的时序数据
SELECT __time__ - __time__ % 60 AS time, AVG(value) AS value
FROM log
GROUP BY time           

注意,这里避免有重复数据,我们对时序数据按时间做一次聚合。这里数据的时间间隔是60s一个点,大家可以根据自己的数据格式自己定义。

  • 有了异常结果打标与时序数据,我们可以通过join 将异常结果整合到时序中,从而帮助大家看到模型的判断。具体的案例如下:
region: "aysls-pub-cn-beijing-k8s" and 
machine: "192.168.***.***:***" and index_name: "mem_usage" | 
select time, value, 
             case when score is null then 0 else score end as score, 
             case when score is null then 0 else 1 end as label from 
        (select A.time, A.value, B.score, 1 as label from 
             ((select __time__ - __time__ % 60 as time, avg(value) as value from log 
            group by time ) as A left join 
           (select time, cast(score as double) as score, 
                     index_name, machine, region from 
                   (select __time__ as time, 
                           json_extract_scalar(result, '$.score') as score, 
                           json_extract_scalar(entity, '$.index_name') as index_name, 
                           json_extract_scalar(entity, '$.machine') as machine, 
                           json_extract_scalar(entity, '$.region') as region, 
                           job_name from ml-detector-res) 
                   HAVING score > 0.75) where region = 'aysls-pub-cn-beijing-k8s' and 
                               machine = '192.168.***.***:***' and 
                               index_name = 'mem_usage') as B 
       on A.time = B.time) 
        ) order by time limit 100000           

执行以上SQL,可以得到如下表格:

SLS机器学习服务最佳实践:流式智能巡检

点击线图,进行配置,就可以得到有异常标注的时序曲线:

SLS机器学习服务最佳实践:流式智能巡检

选择X轴和Y轴,以Label作为信息配置散点列及散点大小:

SLS机器学习服务最佳实践:流式智能巡检

之后我们就可以得到有模型异常标注的时序曲线了。

对于海量的机器,及其指标,我们可以在DashBoard中配置一些过滤器(Filter)以及交互行为,从而更方便的查看模型智能巡检的结果:

  1. 选择SQL中要替换的内容,生成对应的变量
    SLS机器学习服务最佳实践:流式智能巡检
    SLS机器学习服务最佳实践:流式智能巡检
  2. 通过 SQL 找出可选的实例,比如可选的集群、机器、指标等信息,配置交互行为
    SLS机器学习服务最佳实践:流式智能巡检
  3. 配置过滤器,用户自动调节异常分数,实现用户自己所需要的不同敏感程度的异常检测
    SLS机器学习服务最佳实践:流式智能巡检

通过上述配置,我们最终可以得到针对k8s集群的智能巡检分析报表

SLS机器学习服务最佳实践:流式智能巡检

4.4 配置告警,实时巡检

用户在得到巡检报告报表之后,可以查看模型输出的异常检测结果。用户可以根据自己的告警需求,设置告警阈值,进而得到智能化的告警通知。具体的告警配置请见:

https://help.aliyun.com/document_detail/98379.html?spm=5176.2020520112.0.0.e5e034c0Hizt6q

联系我们

纠错或者帮助文档以及最佳实践贡献,请联系:笃林

问题咨询请加钉钉群:

SLS机器学习服务最佳实践:流式智能巡检

继续阅读