search
数据采集 采集器 DataKit DataKit安装

DataKit

简介

DataKit 是一款驻云官方开发的实时数据采集 agent,支持上百种数据的采集,DataKit 采集数据后需发送到 DataWay 数据网关,由 DataWay 网关将数据最终上报到 DataFlux 中心进行存储。DataKit 需部署到用户自己的 IT 环境中,支持多个操作系统。

系统要求

操作系统 架构 备注
Linux 2.6.23 或更高版本 amd64, 386, arm, arm64 CentOS 5.x/RHEL 5.x 不支持
macOS 10.11 或更高版本 amd64
Windows 7, Server 2008R2 或更高版本 amd64, 386 Windows7 上因不支持 domain socket,部分依赖 domain socket 功能的采集器不支持(skywalkingV3)

参见这里

安装/升级

多平台统一的安装程序,支持如下选项(以 Linux 为例):

$ ./dk-installer -h
Usage of ./dk-installer:
  -datakit-name string
      specify DataKit name, example: prod-env-datakit
  -dataway string
      address of dataway(http://IP:Port/v1/write/metric), port default 9528
  -download-only
      download datakit only, not install
  -enable-inputs string
      default enable inputs(comma splited, example: cpu,mem,disk)
  -global-tags string
      enable global tags, example: host=__datakit_hostname,from=__datakit_ip
  -info
      show installer info
  -inputs
      show available inputs can be enabled during install
  -offline
      offline install mode
  -port int
      datakit HTTP port (default 9529)
  -srcs string
      local path of datakit and agent install files
  -upgrade
      upgrade datakit to the newest version

故可在安装命令中,支持一些不同的安装设置。

特殊说明:

  • -global-tags: 目前支持的内置标签有 __datakit_hostname, __datakit_ip, __datakit_id,它们分别表示 DataKit 安装所在机器的主机名、IP 以及 Datakit ID(该 ID 安装时自动生成),也可以使用其它自定义的全局标签,如 project=项目A,manager=张三,多个标签之间以英文逗号(,)分割。
  • -enable-inputs: 某些采集器无需多余配置(或直接使用默认配置),可直接在安装时就开启。比如 cpu,mem,disk 等。(注:Mac 上不支持 cpu 采集器)

Linux x86 64 位

安装:

sudo -- sh -c 'curl https://static.dataflux.cn/datakit/installer-linux-amd64 -o dk-installer && chmod +x ./dk-installer && ./dk-installer && rm -rf ./dk-installer'

升级:

sudo -- sh -c 'curl https://static.dataflux.cn/datakit/installer-linux-amd64 -o dk-installer && chmod +x ./dk-installer && ./dk-installer -upgrade && rm -rf ./dk-installer'

Linux x86 32 位

安装:

sudo -- sh -c 'curl https://static.dataflux.cn/datakit/installer-linux-386 -o dk-installer && chmod +x ./dk-installer && ./dk-installer && rm -rf ./dk-installer'

升级:

sudo -- sh -c 'curl https://static.dataflux.cn/datakit/installer-linux-386 -o dk-installer && chmod +x ./dk-installer && ./dk-installer -upgrade && rm -rf ./dk-installer'

Linux Arm 64 位

安装:

sudo -- sh -c 'curl https://static.dataflux.cn/datakit/installer-linux-arm64 -o dk-installer && chmod +x ./dk-installer && ./dk-installer && rm -rf ./dk-installer'

升级:

sudo -- sh -c 'curl https://static.dataflux.cn/datakit/installer-linux-arm64 -o dk-installer && chmod +x ./dk-installer && ./dk-installer -upgrade && rm -rf ./dk-installer'

Linux Arm 32 位

安装:

sudo -- sh -c 'curl https://static.dataflux.cn/datakit/installer-linux-arm -o dk-installer && chmod +x ./dk-installer && ./dk-installer && rm -rf ./dk-installer'

升级:

sudo -- sh -c 'curl https://static.dataflux.cn/datakit/installer-linux-arm -o dk-installer && chmod +x ./dk-installer && ./dk-installer -upgrade && rm -rf ./dk-installer'

Mac

安装:

sudo -- sh -c 'curl https://static.dataflux.cn/datakit/installer-darwin-amd64 -o dk-installer && chmod +x ./dk-installer && ./dk-installer && rm -rf ./dk-installer'

升级:

sudo -- sh -c 'curl https://static.dataflux.cn/datakit/installer-darwin-amd64 -o dk-installer && chmod +x ./dk-installer && ./dk-installer -upgrade && rm -rf ./dk-installer'

Mac 安装注意事项:

  • 如果安装/升级过程中出现:"launchctl" failed with stderr: /Library/LaunchDaemons/cn.dataflux.datakit.plist: Service is disabled,执行:sudo launchctl enable system/datakit,然后再执行 sudo launchctl load -w /Library/LaunchDaemons/datakit.plist 即可。
  • Mac 32 位尚不支持

Windows x86 64 位:

Windows 安装需在 Powershell 命令行安装,且必须以管理员身份运行 Powershell

Import-Module bitstransfer; start-bitstransfer -source https://static.dataflux.cn/datakit/installer-windows-amd64.exe -destination .\dk-installer.exe; .\dk-installer.exe; rm .\dk-installer.exe

升级:

Import-Module bitstransfer; start-bitstransfer -source https://static.dataflux.cn/datakit/installer-windows-amd64.exe -destination .\dk-installer.exe; .\dk-installer.exe -upgrade; rm dk-installer.exe

Windows x86 32 位:

Import-Module bitstransfer; start-bitstransfer -source https://static.dataflux.cn/datakit/installer-windows-386.exe -destination .\dk-installer.exe; .\dk-installer.exe; rm .\dk-installer.exe

升级:

Import-Module bitstransfer; start-bitstransfer -source https://static.dataflux.cn/datakit/installer-windows-386.exe -destination .\dk-installer.exe; .\dk-installer.exe -upgrade; rm dk-installer.exe

安装时启用采集器

为了方便在安装 datakit 时快速启用预定义的采集器,安装程序增加了一个参数:

--conf-tmpl <path>

指定一个配置包文件(tar.gzip),其中包含了一系列定义好的采集器配置文件,使得这些采集器在 datakit 安装完后就开启了。
配置包中目录的组织方式和datakit安装目录下的conf.d中一致,即配置包解压后应是如下格式(假设安装时启动 host下所有, aliyuncms, aliyunobject 这些采集器):

-host
    cpu.conf
    system.conf
    ...
-aliyun
    aliyuncms.conf
    aliyunobject.conf

path 参数支持:

  1. 本地文件(即datakit所在机器): file://<your/cfg-package/path>
  2. http链接:http(s)://<your-host>/<cfg-package>
  3. 直接使用dataflux提供的 linux-hostwindows-hostmac-host

配置文件中支持使用模板,以{{.Name}}的形式来指定替换字段,以 aliyuncms.conf 为例:

[[inputs.aliyuncms]]
region_id = 'cn-hangzhou'
access_key_id = '{{.AliyunAK}}'
access_key_secret = '{{.AliyunSK}}'

其中的 AliyunAKAliyunSK表示为需要替换的参数。
当使用模板时,需要在配置包中包含一个文件env.data以绑定实际值,该文件是一个个以;分隔的key-value对,如果value有空格或分号,需要使用"。根据上面的例子,env.data可以是:

AliyunAK=ak-xxx; AliyunSK=sk-xxx

也可以换行符分隔:

 AliyunAK=ak-xxx
 AliyunSK=sk-xxx

此时配置包中的内容为:

-host
    cpu.conf
    system.conf
    ...
-aliyun
    aliyuncms.conf
    aliyunobject.conf
env.data

创建配置包: tar -czf host-aliyun.tar.gz env.data host/ aliyun/

conf-tmpl参数使用示例(linux下)

  1. 配置包在本地

    sudo -- sh -c 'curl https://static.dataflux.cn/datakit/installer-linux-amd64 -o dk-installer && chmod +x ./dk-installer && ./dk-installer --conf-tmpl file://my/cfg/package/path && rm -rf ./dk-installer

  2. 配置包在网络

    sudo -- sh -c 'curl https://static.dataflux.cn/datakit/installer-linux-amd64 -o dk-installer && chmod +x ./dk-installer && ./dk-installer --conf-tmpl https://your-host/cfg.tar.gz && rm -rf ./dk-installer

Docker 安装

  • 获取最新版本
$ curl -s https://static.dataflux.cn/datakit/version | grep '"version'
"version": "v1.0.0-611-g49e3bfe",
  • 下载镜像:
$ docker pull pubrepo.jiagouyun.com/dataflux/datakit:v1.0.0-611-g49e3bfe

# 也可以将镜像导出成一个 tar 文件,便于拷贝到其它设备上运行(如思科路由器等)
$ docker save pubrepo.jiagouyun.com/dataflux/datakit:v1.0.0-611-g49e3bfe > datakit.tar
  • 启动容器
$ docker run -d --name='<容器名称>' -v "</host/path/to/conf.d>":"/usr/local/cloudcare/dataflux/datakit/conf.d" -e ENV_DATAWAY="http://<dataway-host>:<dataway-port>/v1/write/metric?token=<your-token>" --privileged --publish 19529:9529 pubrepo.jiagouyun.com/dataflux/datakit:v1.0.0-611-g49e3bfe
  • 说明

    • -v "</host/path/to/confd>":"/usr/local/cloudcare/dataflux/datakit/conf.d": 将主机上的一个目录挂载到容器中,此处即将 datakit 配置文件目录放出来,便于在主机上编辑,不用进入容器编辑,而且也便于不同容器复用。也可以不将 conf.d 目录挂载出来,即在容器内部生成所有的配置文件。

    • --publish 19529:9529: DataKit 需要开放一个 HTTP 端口(9529)用于数据采集,此处即将容器内部的 9529 端口映射成主机上的 19529 端口,客户端可访问主机的 19529 端口来请求 DataKit 的HTTP 服务。

    • 支持如下几个 ENV 传入:

      • ENV_DATAWAY:指定 DataWay 地址
      • ENV_NAME: 指定 DataKit 名称(如未指定,则为空)
      • ENV_LOG_LEVEL:指定 DataKit 日志等级(只支持 debug/info),默认等级为 info
      • ENV_GLOBAL_TAGS: 指定默认追加的全局 Tags列表(形式举例:tag1=val1,tag2=val2
      • ENV_ENABLE_INPUTS:默认开启的采集器(形式举例:cpu,mem,disk,diskio
      • ENV_HOSTNAME:指定运行时 DataKit 的 hostname(容器运行时,默认的 hostname 是容器 ID,如果不指定 hostname 话,DataKit 将获取到容器 ID 作为 hostname,这可能不是你想要的 hostname

离线安装

建议在 64 位机器上执行离线下载,且目标系统必须匹配:如果要下载 Linux 的安装包,务必在 Linux 上执行离线下载。Mac/Windows 以此类推。

对某些没有公网访问能力的目标机器而言,可以先在某个有公网能力的机器上,将安装程序以及安装包下载下来,然后通过 SCP 等方式,将安装程序和安装包上传上去,进行本地安装。

  • 在有公网访问能力的机器上,下载安装程序,此时会将安装程序 dk-installer.exe 以及安装包 datakit.tar.gz 都下载到当前目录。

    • Windows x86 64 位:Import-Module bitstransfer; start-bitstransfer -source https://static.dataflux.cn/datakit/installer-windows-amd64.exe -destination .\dk-installer.exe; .\dk-installer.exe -download-only
    • Windows x86 32 位:Import-Module bitstransfer; start-bitstransfer -source https://static.dataflux.cn/datakit/installer-windows-386.exe -destination .\dk-installer.exe; .\dk-installer.exe -download-only
    • Linux x86 64 位: curl https://static.dataflux.cn/datakit/installer-linux-amd64 -o dk-installer && chmod +x ./dk-installer && ./dk-installer -download-only
    • Linux x86 32 位: curl https://static.dataflux.cn/datakit/installer-linux-386 -o dk-installer && chmod +x ./dk-installer && ./dk-installer -download-only
    • Linux Arm 64 位: curl https://static.dataflux.cn/datakit/installer-linux-arm64 -o dk-installer && chmod +x ./dk-installer && ./dk-installer -download-only
    • Linux Arm 32 位: curl https://static.dataflux.cn/datakit/installer-linux-arm -o dk-installer && chmod +x ./dk-installer && ./dk-installer -download-only
    • Mac 64 位: curl https://static.dataflux.cn/datakit/installer-darwin-amd64 -o dk-installer && chmod +x ./dk-installer && ./dk-installer -download-only
  • 通过 scp 或其它文件传输工具,将安装程序 dk-installer.exe (Linux/Mac 文件名为 dk-installer)以及安装包(如 datakit-linux-amd64-v1.0.0-603-g367eb50.tar.gzagent-linux-amd64.tar.gz)上传到目标机器。以 Linux 为例:

scp dk-installer datakit-linux-amd64-v1.0.0-603-g367eb50.tar.gz agent-linux-amd64.tar.gz user@<host-to-install-datakit>:~/
  • 登陆目标机器,在对应目录下,即可执行安装(默认安装当前目录下的 datakit-<os-arch-version>.tar.gzagent-<os-arch>.tar.gz 两个文件),如:

    • Windows(需以 administrator 权限运行):.\dk-installer.exe -offline -dataway "http://1.2.3.4:9528?token=<your-token>"
    • Linux/Mac(需以 root 权限运行):./dk-installer -offline -dataway "http://1.2.3.4:9528?token=<your-token>"

批量安装

我们可以通过 Ansible 来批量安装 datakit。

  • 前置条件:

    • 管理机安装 Ansible
    • 在 ansible 默认配置路径 /etc/ansible/ 下配置好 host 文件跟 install.yaml 文件
    • 如果通过 Ansible 管理 windows 机器,参考 Ansible文档 做相应前置准备
  • Ansible host 文件配置

[linux]
# ansible_become_pass 提权用户密码 默认不指定为 root 可以通过 become_user 指定(具体参照官方文档)
10.200.6.58  ansible_ssh_user=xxx ansible_ssh_pass=xxx ansible_become_pass=xxx  
10.100.64.117  ansible_ssh_user=xxx ansible_ssh_pass=xxx ansible_become_pass=xxx

[windows]
# ansible_connection 连接使用 winrm(具体参照官方文档)
10.100.65.17 ansible_ssh_user="xxx" ansible_ssh_pass="xxx" ansible_ssh_port=5986 ansible_connection="winrm" ansible_winrm_server_cert_validation=ignore 
  • Ansible install.yaml 文件配置如下
- hosts: linux # 此处对应 host配置文件中 linux机器 
  become: true  # 
  gather_facts: no
  tasks:
  - name: install
    # 此处的 shell 为批量安装,通过指定 dataway 地址、默认开启的主机采集器(cpu,disk,mem)等,设置了 -global-tags host=__datakit_hostname 等
    shell : sudo -- sh -c 'curl http://zhuyun-static-files-production.oss-cn-hangzhou.aliyuncs.com/datakit/installer-linux-amd64 -o dk-installer && chmod +x ./dk-installer && ./dk-installer -dataway "http://10.200.6.58:9528?token=tkn_f948bf848fb241bd950b7af31a0e459a" -enable-inputs cpu,mem,disk -global-tags host=__datakit_hostname,from=__datakit_id && rm -rf ./dk-installer'
    async: 120  # 代表了这个任务执行时间的上限值。即任务执行所用时间如果超出这个时间,则认为任务失败。此参数若未设置,则为同步执行
    poll: 10 # 代表了任务异步执行时轮询的时间间隔,如果poll为0,就相当于一个不关心结果的任务

- hosts: windows # 此处对应 host配置文件中 windows 机器 
  gather_facts: no
  tasks:
  - name: install
    win_shell : Import-Module bitstransfer; start-bitstransfer -source http://zhuyun-static-files-production.oss-cn-hangzhou.aliyuncs.com/datakit/installer-windows-amd64.exe -destination .dk-installer.exe; .dk-installer.exe -dataway "http://10.200.6.58:9528?token=tkn_f948bf848fb241bd950b7af31a0e459a" -enable-inputs cpu,mem,disk -global-tags host=__datakit_hostname,from=__datakit_id; rm .dk-installer.exe
    async: 120
    poll: 10
  • 在管理机上 运行 ansible-playbook -i hosts install.yaml 即可。

注意:如果 DataWay 地址指定有误,比如 IP 不通,在批量场景下,安装程序会直接退出。

重启服务

可以尝试如下几种方式来操作 DataKit 服务

Linux

  • service:

    • service datakit restart # 重启
    • service datakit start # 启动
    • service datakit stop # 停止

# service datakit status

● datakit.service - Collects data and upload it to DataFlux.
   Loaded: loaded (/etc/systemd/system/datakit.service; enabled; vendor preset: enabled)
   Active: active (running) since Mon 2020-05-11 05:53:05 UTC; 3h 13min ago
 Main PID: 7622 (datakit)
    Tasks: 28 (limit: 4915)
   CGroup: /system.slice/datakit.service
           ├─7622 /usr/local/cloudcare/DataFlux/datakit/datakit
           └─7648 agent -config /usr/local/cloudcare/DataFlux/datakit/embed/agent.conf`

May 11 05:53:05 ubt-server systemd[1]: Started Collects data and upload it to DataFlux..
May 11 05:53:05 ubt-server datakit[7622]: 2020-05-11T05:53:05Z I! Starting Telegraf
  • systemctl:

    • systemctl restart datakit # 重启
    • systemctl start datakit # 启动
    • systemctl stop datakit # 停止

# systemctl status datakit
● datakit.service - Collects data and upload it to DataFlux.
   Loaded: loaded (/etc/systemd/system/datakit.service; enabled; vendor preset: enabled)
   Active: active (running) since Mon 2020-05-11 05:53:05 UTC; 3h 14min ago
 Main PID: 7622 (datakit)
    Tasks: 28 (limit: 4915)
   CGroup: /system.slice/datakit.service
           ├─7622 /usr/local/cloudcare/DataFlux/datakit/datakit
           └─7648 agent -config /usr/local/cloudcare/DataFlux/datakit/embed/agent.conf

May 11 05:53:05 ubt-server systemd[1]: Started Collects data and upload it to DataFlux..
May 11 05:53:05 ubt-server datakit[7622]: 2020-05-11T05:53:05Z I! Starting Telegraf`
  • initctl: 如
# initctl status datakit
datakit start/running, process 1603
  • upstart:如
start datakit     # 启动
restart datakit   # 重启
stop datakit      # 停止
  • 直接启动

某些情况下,一些 Linux 移植阉割了类似 service 这样的功能,只能通过手动的方式来启动服务。下面就是具体的例子:

/etc/init.d/datakit start  # 启动
/etc/init.d/datakit status # 查看状态

Mac

  • launchctl:如
# launchctl load -w /Library/LaunchDaemons/datakit.plist    # 启动服务
# launchctl unload -w /Library/LaunchDaemons/datakit.plist  # 停止服务

Windows

运行 services.msc,从服务面板,即可看到 datakit 服务,可通过 UI 方式来执行启动、停止、重启等操作。

Docker

执行命令 docker restart <your-datakit-conatainer-name> 即可。

配置采集源

进入 DataKit 安装目录

  • Linux/Mac 默认安装目录为 /usr/local/cloudcare/dataflux/datakit
  • Windows 32 位默认安装目录为 C:\Program Files (x86)\dataflux\datakit;64 位默认安装目录为 C:\Program Files\dataflux\datakit

采集源配置文件夹为 conf.d,找到你需要配置的采集源配置目录,即可进行数据采集配置。可在 conf.d 目录下搜索采集器名称:

  • Linux/Mac: find . -name '采集器名称*'
  • Windows: 可在文件管理界面直接输入搜索

DataKit 采集器默认会开启 system 数据采集,你也可以选择关闭

DataKit 主配置更改

在 DataKit 安装目录下,datakit.conf 为 DataKit 主配置文件:

uuid="dkid_brd1v4jksvvfdd632cvg" // DataKit 唯一标识,可自定义
log="/usr/local/cloudcare/forethought/datakit/ datakit.log" // 日志文件位置
log_level="info" // 日志等级

# Global tags can be specified here in key="value" format.
[global_tags] // 全局 Tag,设置后所有该采集器采集的数据点都会带上这个 Tag

[dataway]
  url = "http://10.100.64.117:49528?token=tkn_7cf6db7eb3224xxxxxxxxxxxxxxxxxxx"
  ws_port = "443"     //ws 端口 即 dataway ws_bind 的端口
  timeout = "30s"
  heartbeat = "30s"  // ws心跳时间

Proxy 代理模式

为便于无公网出口的采集器数据采集,DataKit 提供级联模式,多个 DataKit 可将数据汇集到有公网出口的 DataKit 上,然后再由该公网出口的 DataKit 将数据发送出去。

第一步:配置代理的 DataKit

进入 DataKit 安装目录下的 conf.d/proxy/ 目录,复制 proxy.conf.sample 并命名为 proxy.conf。示例如下:

[[inputs.proxy]]
    # http server route path
    # required: 只能配置成 /proxy
    path = "/proxy"

第二步:配置被代理的 DataKit

在被代理的 DataKit 上,修改 datakit.conf 文件中的 dataway 地址,指向代理 DataKit 的地址:

[dataway]
  # 原 dataway 地址
  # url = "http://dataway-host?token=tkn_xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx" 

  # 替换成 proxy datakit 的地址,注意加上 /proxy 这个路由
  url = "http://datakit-host/proxy?token=tkn_xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx"

DataWay 多路由选择

某些采集器可选择往 DataWay 的不同 URL 发送数据。目前 DataWay 上有三种数据路由:

  • /v1/write/metrics:时序指标数据
  • /v1/write/logging:日志数据
  • /v1/write/object:对象数据
  • /v1/write/keyevent:事件数据

可在采集器对应的配置文件中,增加以上路由配置,以对象数据为例:

dataway_path='/v1/write/object'

FAQ

怎样开启 Debug 模式?

打开 datakit.conf 文件,将 log_level 配置为 debug ,重启即可开启调试模式,debug 日志会写入 datakit.log 文件中、

是否能将采集的数据打印出来进来调试?

可以。打开 datakit.conf 文件,设置 output_file,指定采集数据输出的文件路径(绝对路径),重启 DataKit,采集的数据将不上报而是输出到指定的文件中。

同一个采集器,如何配置多份?

一般情况下,所有采集器的配置,都是如下这种配置范式:

[[inputs.some-name]]
   some-option: some-value
   other-options: other-values

如果要配置多份采集,直接复制上面的内容即可,如:

# 第一份配置
[[inputs.some-name]]
   some-option: some-value
   other-options: other-values

# 另一份配置
[[inputs.some-name]]
   some-option: some-value
   other-options: other-values

这样 DataKit 中同一个采集器,就可启动多份采集

采集器安装在哪?

对 Windows 而言,32 位安装在

  • 32 位:C:\Program Files (x86)\dataflux\datakit
  • 64 位:C:\Program Files\dataflux\datakit

对 Linux/Mac 而言,统一安装在 /usr/local/cloudcare/dataflux/datakit 目录下

更新采集器的配置如何生效?

更改完采集器配置后,除了重启 datakit 服务外,还可请求 http://datakit-ip:9529/reload 刷新配置,无需重启

如何远程更新采集器配置?

Comming Soon

如何查看采集器的运行情况?

默认情况下,请求 DataKit HTTP 接口http://datakit-ip:9529/stats,即可查看 DataKit 的运行状态。其中:

{
  // 当前采集到的数据详情
  "inputs_status": [
    {
      "name": "net",                      // 采集器名称
      "category": "/v1/write/metric",     // 采集的数据类型
      "total": 3984,                      // 该采集器所采集的数据总量
      "count": 1,                         // 总采集次数
      "first": "2020-08-14T02:03:40.295777966Z", // 采集器第一次采集时间
      "last": "2020-08-14T02:03:40.295777966Z",  // 采集器最后一次采集时间
      "crash_cnt": 0                             // 奔溃次数
    },
    {
      "name": "disk",
      "category": "/v1/write/metric",
      "total": 554,
      "count": 1,
      "first": "2020-08-14T02:03:40.295914702Z",
      "last": "2020-08-14T02:03:40.295914702Z",
      "crash_cnt": 0
    },
    ...
  ],

  "enabled_inputs": [ // 当前开启的采集器列表
    {
      "input": "hostobject", // 采集器名称
      "instances": 1,        // 运行的实例个数
      "configs": [           // 采集器的配置文件目录(可能有多个)
        "/usr/local/cloudcare/dataflux/datakit/conf.d/hostobject/hostobj.conf"
      ]
    },
    {
      "input": "trace",
      "instances": 1,
      "configs": [
        "/usr/local/cloudcare/dataflux/datakit/conf.d/trace/trace.conf"
      ]
    },
    {
      "input": "self",
      "instances": 1,
      "configs": [
        "no config for `self' input"
      ]
    },
    {
      "input": "oraclemonitor",
      "instances": 1,
      "configs": [
        "/usr/local/cloudcare/dataflux/datakit/conf.d/oracle/oraclemonintor.conf"
      ]
    },
    {
      "input": "mock",
      "instances": 1,
      "configs": [
        "/usr/local/cloudcare/dataflux/datakit/conf.d/mock/mock.conf"
      ]
    },
    {
      "input": "system",
      "instances": 1,
      "configs": [
        "/usr/local/cloudcare/dataflux/datakit/conf.d/system/system.conf"
      ]
    }
  ],

  "available_inputs": [       // 当前采集器上可用的采集器列表
    "[D] aliyunactiontrail",  // [D] 开头的表示 datakit 采集器
    "[D] aliyuncdn",
    "[D] aliyuncms",
    "...",
    "[T] activemq",           // [T] 开头的表示 telegraf 采集器
    "[T] amqp",
    "[T] amqp_consumer",
    "[T] apache",
    "...",

    "tatal 120, datakit 51, agent: 69"  // 支持的采集器统计
  ],

  // 当前运行的采集器版本、发布日期、运行时间、运行的 OS 环境
  "version": "v1.0.0-795-g7e7a824",
  "build_at": "2020-08-18 01:38:01",
  "uptime": "46.279035897s",
  "os_arch": "linux/amd64",
  "docker": false,              // 是否容器运行

  // 上次 reload 的时间以及 reload 次数 
  "reload": "2020-08-18T01:39:49.01018263Z",
  "reload_cnt": 1
}

Bugs

目前 DataKit 存在如下几个问题待修复:

  • gRPC 服务无法在 Windows-7/Win-Server-2008 R2 上运行,受影响的采集器:skywalkingV3
  • 在 Windows 10 上,系统重启后,可能 datakit 不会自动起来