§ Percona Toolkit 系统类

小贴士

$为 Linux 命令提示符、greatsql>为 GreatSQL 数据库提示符。

§ 系统类

在 Percona Toolkit 中性能类共有以下工具:

  • pt-diskstats:查看系统磁盘状态。
  • pt-fifo-split:模拟切割文件并输出。
  • pt-ioprofile:查询进程 I/O 并打印一个 I/O 活动表。
  • pt-stalk:出现问题时,收集诊断数据。
  • pt-sift:浏览由 pt-stalk 创建的文件。
  • pt-summary:收集和显示系统概况。

§ pt-diskstats

§ 概要

类似于 iostat 命令,不过它比 iostat 输出的更加详细一点。

用法

pt-diskstats [OPTIONS] [FILES]
1

打印 GNU/Linux 的磁盘 I/O 统计信息。它有点类似于 iostat,但它是交互式的并且更详细。且可以分析从另一台机器收集的样本。

§ 选项

该工具所有选项如下:

参数 含义
--columns-regex 打印与此 Perl 正则表达式匹配的列
--config 读取这个逗号分隔的配置文件列表,如果指定,这必须是命令行上的第一个选项
--devices-regex 打印与此 Perl 正则表达式匹配的设备
--group-by 分组依据模式:disk,sample,all
--headers 如果存在 group ,则每个样本将由空行分隔,除非样本只有一行
--help 显示帮助
--interval 在交互模式下,等待 N 秒后再打印到屏幕。
--iterations 当处于交互模式时,在 N 个样本后停止。默认情况下永远运行
--sample-time group-by sample模式下,每组包含 N 秒的样本
--save-samples 用于保存 diskstats 样本的文件
--show-inactive 显示不活动的设备
--show-timestamps #ts列中显示“HH:MM:SS”时间戳
--version 显示版本
--[no]version-check 版本检查

§ 最佳实践

特别提醒

在较新的 Linux 内核版本中,为磁盘统计信息返回的字段量更改为 20 个,并导致 pt-diskstat 在这些系统上无法提供任何输出。 ※该问题详见 (opens new window)解决方法 (opens new window)

§ 直接采集分析

小贴士

--devices-regex指定设备名称,根据自身设备而修改。

pt-diskstats --interval=1 --iterations=10 --devices-regex=sda --show-timestamps
1
查看运行结果
$ pt-diskstats --interval=1 --iterations=10 --devices-regex=sda --show-timestamps
     #ts device    rd_s rd_avkb rd_mb_s rd_mrg rd_cnc   rd_rt    wr_s wr_avkb wr_mb_s wr_mrg wr_cnc   wr_rt busy in_prg    io_s  qtime stime
14:08:26 sda        0.0     0.0     0.0     0%    0.0     0.0     0.0     0.0     0.0     0%    0.0     0.0   0%      0     0.0    0.0   0.0
14:08:26 sda1       0.0     0.0     0.0     0%    0.0     0.0     0.0     0.0     0.0     0%    0.0     0.0   0%      0     0.0    0.0   0.0
14:08:26 sda2       0.0     0.0     0.0     0%    0.0     0.0     0.0     0.0     0.0     0%    0.0     0.0   0%      0     0.0    0.0   0.0
14:08:26 sda3       0.0     0.0     0.0     0%    0.0     0.0     0.0     0.0     0.0     0%    0.0     0.0   0%      0     0.0    0.0   0.0
1
2
3
4
5
6
  • ts:在--show-timestamps操作时候的时间戳。但如果在group-by为all模式下此列显示时间戳偏移量,如果在sample模式下表示分组到每个样本的总时间跨度。
  • device:设备名称。
  • rd_s:每秒的平均读取次数。
  • rd_avkb:读取的平均大小单位kb。
  • rd_mb_s:每秒读取的平均兆字节数。
  • rd_mrg:在发送到物理设备之前在队列调度程序中合并在一起的读取请求的百分比。
  • rd_cnc:根据利特尔定律计算得出的读取操作的平均并发度。
  • rd_rt:读取操作的平均响应时间,以毫秒为单位。
  • wr_s:每秒平均写入次数。
  • wr_avkb:平均写入大小。
  • wr_mb_s:每秒平均写入的平均大小。
  • wr_mrg:发送到物理设备之前,在队列调度程序中合并在一起的写入请求的百分比。
  • wr_cnc:写入操作的平均并发量。
  • wr_rt:写入操作的平均相应时间。
  • busy:磁盘繁忙程度。
  • in_prg:正在进行的请求数。
  • io_s:物理设备的平均吞吐量,以每秒 I/O 操作数 (IOPS) 为单位。
  • qtime:平均排队时间。
  • stime:平均服务时间。

§ 采集分析

先收集 /proc/diskstats 的信息,存到一个文件里面,采集一段时候后再通过 pt-diskstats 来计算。这样的好处是,可以了解该段时间内的整体 I/O 性能,而不是瞬间的性能指标。

创建该 collection.sh 脚本:

小贴士

采集时间可以修改 LOOPS 参数,采集间隔修改 INTERVAL 参数即可。

#!/bin/bash
INTERVAL=1
LOOPS=10
INT=1
echo `date`
while (( $INT <= $LOOPS )) do Sleep=$(date +%s.%N | awk "{print $INTERVAL - (\$1 % $INTERVAL)}") 
    sleep $Sleep 
    date +"TS %s.%N %F %T" >> diskstats-samples.txt
    cat /proc/diskstats >> diskstats-samples.txt
    let INT=INT+1
done
echo `date`
1
2
3
4
5
6
7
8
9
10
11
12

授权该 collection.sh 脚本:

chmod 755 collection.sh
1

运行该 collection.sh 脚本:

sh collection.sh
1

在脚本文件的同一个目录下会生成diskstats-samples.txt文本文件,接着使用 pt-diskstats 工具分析即可:

pt-diskstats --group-by disk diskstats-samples.txt
1
查看运行结果
$ pt-diskstats --group-by disk diskstats-samples.txt
  #ts device    rd_s rd_avkb rd_mb_s rd_mrg rd_cnc   rd_rt    wr_s wr_avkb wr_mb_s wr_mrg wr_cnc   wr_rt busy in_prg    io_s  qtime stime
 {19} sda        0.0     0.0     0.0     0%    0.0     0.0     0.4     6.8     0.0     8%    0.0     0.3   0%      0     0.4    0.2   0.2
 {19} sda3       0.0     0.0     0.0     0%    0.0     0.0     0.3     7.9     0.0    10%    0.0     0.3   0%      0     0.3    0.2   0.1
 {19} dm-0       0.0     0.0     0.0     0%    0.0     0.0     0.4     7.2     0.0     0%    0.0     0.5   0%      0     0.4    0.2   0.2
1
2
3
4
5

不同点是 ts 列显示包含在输出行中的样本数,其它字段意思和上方一致。

查看该段时间内 sda 的 iops 变化情况

pt-diskstats --group-by sample --devices-regex sda --columns-regex io_s diskstats-samples.txt
1
查看运行结果
$ pt-diskstats --group-by sample --devices-regex sda --columns-regex io_s diskstats-samples.txt

 #ts device    io_s
  0.0 {4}      156.6
......中间省略部分
 55.2 {4}        0.0
 56.2 {4}        0.0
1
2
3
4
5
6
7

查看 sda-sdb 两块盘在采集的时间段内的整体 I/O 平均负载情况

pt-diskstats --group-by disk --devices-regex 'sd[a-c]' diskstats-samples.txt
1

小技巧

在使用 pt-diskstats 工具在线分析的时候按 “?” 键,将调出交互式帮助菜单,其中显示哪些键控制程序:

$ pt-diskstats --devices-regex=sda --show-timestamps
15:08:06 sda        0.0     0.0     0.0     0%    0.0     0.0     0.0     0.0     0.0     0%    0.0     0.0   0%      0     0.0    0.0   0.0
15:08:06 sda1       0.0     0.0     0.0     0%    0.0     0.0     0.0     0.0     0.0     0%    0.0     0.0   0%      0     0.0    0.0   0.0
15:08:06 sda2       0.0     0.0     0.0     0%    0.0     0.0     0.0     0.0     0.0     0%    0.0     0.0   0%      0     0.0    0.0   0.0
15:08:06 sda3       0.0     0.0     0.0     0%    0.0     0.0     0.0     0.0     0.0     0%    0.0     0.0   0%      0     0.0    0.0   0.0
# 此时输入'?'会弹出提示
   You can control this program by key presses:
   ------------------- Key ------------------- ---- Current Setting ----
   A, D, S) Set the group-by mode              A
   c) Enter a Perl regex to match column names .
   /) Enter a Perl regex to match disk names   sda
   z) Set the sample size in seconds           1
   i) Hide inactive disks                      yes
   p) Pause the program
   q) Quit the program
   space) Print headers
   ------------------- Press any key to continue -----------------------
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17

§ pt-fifo-split

§ 概要

可以用做切割大文件,切割完成后再分批导入 GreatSQL 数据库中,不会造成效率低以及主从延迟。

用法

pt-fifo-split [OPTIONS] [FILE]
1

§ 选项

该工具所有选项如下:

参数 含义
--config 读取这个逗号分隔的配置文件列表,如果指定,这必须是命令行上的第一个选项
--fifo 可以从中读取行的 fifo 的名称
--force 如果 fifo 已存在,请将其删除,然后重新创建
--help 显示帮助
--lines 每个块中要读取的行数
--offset 从第 N 行开始。如果参数为 0,则所有行都打印到 fifo。如果为 1,则从第一行开始打印行(与 0 完全相同)。如果为 2,则跳过第一行,并将第二行及后续行打印到 fifo
--pid 创建给定的 PID 文件
--statistics 打印块之间的统计信息
--version 显示版本

§ 最佳实践

用命令 seq 1 1000000 > hugefile.txt 向 hugefile.txt文件 插入一百万行数据:

$ wc -l hugefile.txt           
1000000 hugefile.txt
1
2

创建脚本文件 fifo_get.sh 获取切割后的数据:

#!/bin/bash
filename=/tmp/hugefile
n=1
while [ -e /tmp/pt-fifo-split ];
do 
        cat /tmp/pt-fifo-split > "$filename"_"$n".txt ;
        let n++
done
1
2
3
4
5
6
7
8

使用 pt-fifo-split 工具切割:

pt-fifo-split --lines 10000 --statistics hugefile.txt
1
查看运行结果
$ pt-fifo-split --lines 10000 --statistics hugefile.txt
chunks     lines  time  overall  current
    1     10000    48 208.33 208.33
    2     20000    48 416.67 10000.00
    3     30000    48 625.00 10000.00
    4     40000    48 833.33 10000.00
    5     50000    48 1041.67 10000.00
......下方省略
1
2
3
4
5
6
7
8

使用脚本工具获取数据:

$ chmod 755 fifo_get.sh
$ sh fifo_get.sh 
$ ls /tmp/hugefile_* 2>/dev/null | wc -l
100
1
2
3
4

接下来就可以把这些切割后的文件导入到 GreatSQL 数据库中了,此时可以用 GreatSQL 的并行 LOAD DATA 特性,最大导入的加速比大概为20倍。

使用 LOAD 语句增加 HINT 启用:

greatsql> LOAD /*+ SET_VAR(gdb_parallel_load=ON) SET_VAR(gdb_parallel_load_chunk_size=65536) SET_VAR(gdb_parallel_load_workers=16) */
DATA INFILE 'hugefile.txt' INTO TABLE t1;
1
2

此处可详见:GreatSQL 的并行 LOAD DATA

小贴士

当然也可以使用split命令来做切割 split -l 1000 hugefile.txt chunk_

§ pt-ioprofile

§ 概要

主要用于监视和分析 MySQL/GreatSQL 进程的 I/O 活动。通过 stracelsof 来跟踪进程的 I/O 情况,并打印出相关的表文件和活动 I/O 信息。

用法

pt-ioprofile [OPTIONS] [FILE]
1

小贴士

建议使用 root 权限,可以收集到更多的信息。

§ 选项

该工具所有选项如下:

参数 含义
--aggregate 聚合函数,sumavg
--cell 指定单元格的内容,有效值为 countsizestimes
--group-by 分组项,有效值为 allfilenamepid
--help 显示帮助
--profile-pid 要分析的 PID 会覆盖 --profile-process
--profile-process 要分析的进程名称
--run-time 分析的时间长度
--save-samples 保存样本的文件名
--version 显示版本

§ 最佳实践

直接使用即可,默认 --cell 为 times 既 I/O 操作的时间,默认监听 30 秒的 mysqld 进程,并给出 30 秒内的分析结果

小贴士

是要等待30秒后给出分析结果,并不是实时出结果。

pt-ioprofile
1
查看运行结果
$ pt-ioprofile
Wed Apr  3 02:16:37 PM CST 2024
Tracing process ID 657147
     total      write      lseek  ftruncate filename
  0.000468   0.000232   0.000142   0.000094 /data/GreatSQL/innodb_status.657147
  0.000184   0.000000   0.000184   0.000000 /tmp/#13526
  0.000180   0.000000   0.000180   0.000000 /tmp/#13525
1
2
3
4
5
6
7

可指定 --cell 为 sizes 既 I/O 操作的大小:

pt-ioprofile --cell=sizes
1
查看运行结果
$ pt-ioprofile --cell=sizes                                                        
Wed Apr  3 02:11:09 PM CST 2024
Tracing process ID 657147
     total      write      lseek  ftruncate filename
     53620      26810      26810          0 /data/GreatSQL/innodb_status.657147
      5074          0       5074          0 /tmp/#13525
      2024          0       2024          0 /tmp/#13526
1
2
3
4
5
6
7

可指定--cell为count既I/O操作的次数:

pt-ioprofile --cell=count 
1
查看运行结果
$ pt-ioprofile --cell=count 
Wed Apr  3 02:15:18 PM CST 2024
Tracing process ID 657147
     total      write      lseek  ftruncate filename
         7          4          2          1 /data/GreatSQL/innodb_status.657147
         1          0          1          0 /tmp/#13526
         1          0          1          0 /tmp/#13525
1
2
3
4
5
6
7

§ pt-stalk

§ 概要

pt-stalk 工具的功能是出现问题时收集 GreatSQL 数据库和系统的诊断信息,可以解决更细粒度的现场故障采集。

用法

pt-stalk [OPTIONS]
1

小贴士

建议使用root权限,可以收集到更多的信息。

§ 选项

该工具所有选项如下:

参数 含义
--ask-pass 连接 MySQL/GreatSQL 时提示输入密码
--collect 当故障发生时收集诊断数据,可使用 --no-collect 使工具只监视系统不收集数据
--collect-gdb 收集 GDB 堆栈跟踪
--collect-oprofile 收集 oprofile 数据
--collect-strace 收集跟踪数据
--collect-tcpdump 收集 tcpdump 数据
--config 读取以逗号分隔的配置文件列表,如果指定,这必须是命令行上的第一个选项
--cycles 在触发--collect之前,--variable必须大于--threshold多少次
--daemonize 守护进程,后台运行
--defaults-file 只从给定文件中读取 MySQL/GreatSQL 选项
--dest 保存--collect的诊断数据的位置,不要选择和GreatSQL同一个目录,最好是独立的目录,因为该工具会删除目录下超过一定日期的文件,可能会造成误删。默认目录/var/lib/pt-stalk
--disk-bytes-free 如果磁盘的可用空间少于次值的设定就不使用--collect。防止磁盘被该工具的诊断数据填满
--disk-pct-free 如果磁盘的可用空间少于次值的百分比就不使用--collect 。这可以防止该工具用诊断数据填充磁盘,和--disk-bytes-free差不多,一个是具体值一个是百分比
--function 设置触发条件,默认值监视SHOW GLOBAL STATUS,也可以通过此参数修改为SHOW PROCESSLIST
--help 显示帮助
--host 连接到主机
--interval 检查触发器是否为 true 的频率
--iterations 收集多少次,默认是一直运行
--log 守护进程时将所有输出打印到此文件
--match 监测 SHOW PROCESSLIST 时使用的模式
--notify-by-email 发送收集信息到指定的邮箱中
--password 用于连接的密码
--pid 创建给定的 PID 文件
--plugin 加载插件以连接到该工具并扩展其功能
--mysql-only 仅触发 MySQL/GreatSQL 相关的捕获,忽略所有其他
--port 用于连接的端口号
--prefix 诊断样本的文件名前缀,默认情况下,同一--collect实例创建的所有文件都具有基于当前本地时间的时间戳前缀,例如 2011_12_06_14_02_02 ,即 2011 年 12 月 6 日 14:02:02
--retention-count 保留最后 N 次运行的数据。如果 N > 0,程序将保留最后 N 次运行的数据,并删除较旧的数据
--retention-size 保留最多–retention-size MB的数据
--retention-time 保留收集样本的天数
--run-time 触发多长时间的 --collect 诊断数据,默认30秒
--sleep --collect 之后要停止多久,可以防止该工具连续触发
--sleep-collect 收集循环周期之间休眠多长时间
--socket 用于连接的套接字文件
--stalk 观察服务器并等待触发发生
--system-only 仅触发与操作系统相关的捕获,忽略所有其他捕获
--threshold --variable 的最大可接受值
--user 登录的用户
--variable 要与 --threshold 进行比较的变量
--verbose 运行时打印或多或少的信息
--version 显示版本

§ 最佳实践

§ 监控SHOW GLOBAL STATUS中的状态值

例如监控 Threads_running 状态值,如果 Threads_running 状态值连续5次超过100,这触发收集主机和数据库的信息:

pt-stalk --function status --variable Threads_running --cycles 5 --threshold 500 --daemonize --user=root --password=
1

有以下三种触发方式:

  • status 通过监控SHOW GLOBAL STATUS的参数值,--variable参数指定的监控的具体是哪个参数,默认Threads_running

  • processlist

    通过监控SHOW FULL PROCESSLIST命令的结果,--variable参数指定列的值和--match指定值相匹配的次数,如:State列,匹配值:statistics

  • 自定义脚本

§ 立即收集主机和数据库信息

不等待触发发生,立即收集在60秒内主机和数据库的信息,等待180秒后结束自动退出:

pt-stalk --no-stalk --run-time=60 --iterations=1 --user=root --password=
1

查看默认诊断数据存放的位置/var/lib/pt-stalk

$ ls /var/lib/pt-stalk                            
2024_04_07_14_47_10-df              2024_04_07_14_47_10-lsof            2024_04_07_14_47_10-numastat     2024_04_07_14_47_10-ps-locks-transactions
2024_04_07_14_47_10-disk-space      2024_04_07_14_47_10-meminfo         2024_04_07_14_47_10-opentables1  2024_04_07_14_47_10-slabinfo
2024_04_07_14_47_10-diskstats       2024_04_07_14_47_10-mpstat          2024_04_07_14_47_10-opentables2  2024_04_07_14_47_10-slave-status
2024_04_07_14_47_10-hostname        2024_04_07_14_47_10-mpstat-overall  2024_04_07_14_47_10-output       2024_04_07_14_47_10-sysctl
2024_04_07_14_47_10-innodbstatus1   2024_04_07_14_47_10-mutex-status1   2024_04_07_14_47_10-pmap         2024_04_07_14_47_10-top
2024_04_07_14_47_10-innodbstatus2   2024_04_07_14_47_10-mutex-status2   2024_04_07_14_47_10-processlist  2024_04_07_14_47_10-trigger
2024_04_07_14_47_10-interrupts      2024_04_07_14_47_10-mysqladmin      2024_04_07_14_47_10-procstat     2024_04_07_14_47_10-variables
2024_04_07_14_47_10-iostat          2024_04_07_14_47_10-netstat         2024_04_07_14_47_10-procvmstat   2024_04_07_14_47_10-vmstat
2024_04_07_14_47_10-iostat-overall  2024_04_07_14_47_10-netstat_s       2024_04_07_14_47_10-ps           2024_04_07_14_47_10-vmstat-overall
1
2
3
4
5
6
7
8
9
10

有很多采集的文件,从文件名可以看出来,命名方式就是以命令来命名的。同时也可以用pt-sift工具来查看产生的文件内容。

§ pt-sift

§ 概要

用于分析、查看pt-stalk命令产生的文件内容,并生产概要信息,然后通过输入不同的命令查看不同的内容。如,输入m,查看的是SHOW STATUS命令的内容。

用法

pt-sift FILE|PREFIX|DIRECTORY
1

这是一个交互式的命令。

§ 选项

该工具所有选项如下:

参数 含义
--help 显示帮助
--version 显示版本

§ 最佳实践

§ 显示所有pt-stalk收集的信息

可以直接使用pt-sift命令,并加上pt-stalk工具收集的信息存放地址:

pt-sift /var/lib/pt-stalk
1

此时会跳出一个交互式的命令行,可以通过输入?来查看帮助信息,通过输入不同的命令显示不同的内容

  • d:设置在样本磁盘性能统计信息上启动 pt-diskstats 工具的操作。
  • i:设置在 less 中查看第一个 INNODB STATUS 样本的操作。
  • m:使用 pt-mext 工具并排显示 SHOW STATUS 计数器的前 4 个样本。
  • n:以两种方式汇总 netstat 数据的第一个样本:按原始主机和按连接状态。
  • j:选择下一个时间戳作为活动样本。
  • k:选择前一个时间戳作为活动样本。
  • q:退出程序。
  • 1:将每个示例的操作设置为默认值,即查看示例的摘要。
  • 0:将操作设置为仅列出示例中的文件。
  • *:查看所有文件。
                  ---  COMMANDS  ---
      1  Default action: summarize files
      0  Minimal action: list files
      *  View all the files in less
      d  Invoke 'diskstats' on the disk performance data
      i  View the first INNODB STATUS sample in 'less'
      m  Invoke 'pt-mext' to show the SHOW STATUS counters side by side
      n  Summarize the 'netstat -antp' status data
                  --- NAVIGATION ---
      j  Select the next timestamp
      k  Select the previous timestamp
      q  Quit the program
Press any key to continue
1
2
3
4
5
6
7
8
9
10
11
12
13

§ pt-summary

§ 概要

打印信息涵盖 CPU、内存、硬盘、网卡等核心信息,同时展现文件系统、磁盘调度、队列大小、LVM、RAID 等详细配置,以及网络链接统计、netstat 分析,并突出前10负载与 vmstat 数据。

用法

pt-summary
1

§ 选项

参数 含义
--config 读取这个逗号分隔的配置文件列表,如果指定,这必须是命令行上的第一个选项
--help 显示帮助
--read-samples 从此目录中的文件创建报告
--save-samples 将收集到的数据保存在此目录中
--sleep vmstat 收集样本时休眠多长时间
--summarize-mounts 报告已安装的文件系统和磁盘使用情况
--summarize-network 有关网络控制器和配置的报告
--summarize-processes 报告顶级进程和 vmstat 输出
--version 打印工具的版本并退出

§ 最佳实践

直接使用即可:

pt-summary
1

该段展示当前日期和时间,以及服务器和操作系统的概览:

# Percona Toolkit System Summary Report ######################
        Date | 2024-04-15 07:49:13 UTC (local TZ: CST +0800)
    Hostname | myarch
      Uptime | 74 days,  5:25,  4 users,  load average: 0.03, 0.01, 0.00
    Platform | Linux
     Release | "Arch Linux" (n/a)
      Kernel | 6.6.3-arch1-1
Architecture | CPU = 64-bit, OS = 64-bit
   Threading | NPTL 2.39
    Compiler | GNU CC version 13.2.1 20230801.
     SELinux | No SELinux detected
 Virtualized | No virtualization detected
1
2
3
4
5
6
7
8
9
10
11
12

该段提取自/proc/cpuinfo

# Processor ##################################################
  Processors | physical = 1, cores = 6, virtual = 12, hyperthreading = yes
      Speeds | 1x4071.589, 1x4177.016, 1x4179.769, 1x4197.696, 1x4197.784, 1x4198.704, 6x800.000
      Models | 12xIntel(R) Core(TM) i7-8850H CPU @ 2.60GHz
      Caches | 12x9216 KB
1
2
3
4
5

该段是内存信息。生成自freepssysctl以及dmidecode

# Memory #####################################################
         Total | 15.4G
          Free | 1.1G
          Used | physical = 3.7G, swap allocated = 0.0, swap used = 0.0, virtual = 3.7G
        Shared | 3.9M
       Buffers | 10.9G
        Caches | 11.7G
         Dirty | 20 kB
       UsedRSS | 3.3G
    Swappiness | 60
   DirtyPolicy | 20, 10
   DirtyStatus | 0, 0
    Numa Nodes | 1
   Numa Policy | default
Preferred Node | current
   Node    Size        Free        CPUs
   ====    ====        ====        ====
   node0   15787 MB    1165 MB     0 1 2 3 4 5 6 7 8 9 10 11
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18

该段是挂载文件系统。生成自mountdf

# Mounted Filesystems ########################################
  Filesystem      Size Used Type     Opts
                   Mountpoint
  /dev/nvme0n1p1  799M   1% vfat     rw,relatime,fmask=0022,dmask=0022,codepage=437,iocharset=ascii,shortname=mixed,utf8,errors=remount-ro /efi
  /dev/nvme0n1p2  233G  34% ext4     rw,relatime
                   /
  /dev/sda1       916G   4% ext4     rw,relatime
                   /home
  efivarfs        384K  19% efivarfs rw,nosuid,nodev,noexec,relatime
                   /sys/firmware/efi/efivars
  run             7.8G   1% tmpfs    rw,nosuid,nodev,relatime,mode=755,inode64
                   /run
  tmpfs           1.6G   1% tmpfs    rw,nosuid,nodev,inode64
                   /run/user/0
  tmpfs           1.6G   1% tmpfs    rw,nosuid,nodev,relatime,size=1616676k,nr_inodes=404169,mode=700,inode64
                   /run/user/0
  tmpfs           1.6G   1% tmpfs    rw,nosuid,nodev,nr_inodes=1048576,inode64
                   /run/user/0
  tmpfs           7.8G   0% tmpfs    rw,nosuid,nodev,inode64
                   /dev/shm
  tmpfs           7.8G   0% tmpfs    rw,nosuid,nodev,relatime,size=1616676k,nr_inodes=404169,mode=700,inode64
                   /dev/shm
  tmpfs           7.8G   0% tmpfs    rw,nosuid,nodev,nr_inodes=1048576,inode64
                   /dev/shm
  tmpfs           7.8G   1% tmpfs    rw,nosuid,nodev,inode64
                   /tmp
  tmpfs           7.8G   1% tmpfs    rw,nosuid,nodev,relatime,size=1616676k,nr_inodes=404169,mode=700,inode64
                   /tmp
  tmpfs           7.8G   1% tmpfs    rw,nosuid,nodev,nr_inodes=1048576,inode64
                   /tmp
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30

该段是磁盘调度信息。提取自/sys

# Disk Schedulers And Queue Size #############################
     nvme0n1 | [none] 1023
         sda | [mq-deadline] 64
1
2
3

该段是磁盘分区信息。生成自fdisk -l

# Disk Partitioning ##########################################
Device       Type      Start        End               Size
============ ==== ========== ========== ==================
/dev/nvme0n1 Disk                             256060514304
/dev/nvme0n1p1 Part       2048    1640447                  0
/dev/nvme0n1p2 Part    1640448  500117503                  0
/dev/sda     Disk                            1000204886016
/dev/sda1    Part       2048 1953523711                  0
1
2
3
4
5
6
7
8

该段是Kernel Inode State

# Kernel Inode State #########################################
dentry-state | 733944   717873  45      0       291017  0
     file-nr | 1120     0       9223372036854775807
    inode-nr | 631593   103806
1
2
3
4

该段是内核索引节点信息。分别提取自/proc/sys/fs目录下同名文件:

# LVM Volumes ################################################
Unable to collect information
# LVM Volume Groups ##########################################
Unable to collect information
1
2
3
4

该段是RAID控制器。生成自lvs

# RAID Controller ############################################
  Controller | No RAID controller detected
1
2

该段是网络配置,生成自lspcisysctl

# Network Config #############################################
  Controller | Intel Corporation Ethernet Connection (7) I219-LM (rev 10)
 FIN Timeout | 60
  Port Range | 60999
1
2
3
4

该段是网络接口统计,生成自ip -s link

# Network Connections ########################################
  Connections from remote IP addresses
    192.168.6.76        1
    213.133.111.6       1
  Connections to local IP addresses
    192.168.6.55        2
  Connections to top 10 local ports
    22                  1
    35554               1
  States of connections
    ESTABLISHED         2
    LISTEN              5
1
2
3
4
5
6
7
8
9
10
11
12

该段是TOP命令前几行:

# Top Processes ##############################################
    PID USER      PR  NI    VIRT    RES    SHR S  %CPU  %MEM     TIME+ COMMAND
1526529 root      20   0   15316   5632   3584 R  16.7   0.0   0:00.03 top
      1 root      20   0   22644  13452  10112 S   0.0   0.1  12:08.33 systemd
      2 root      20   0       0      0      0 S   0.0   0.0   0:05.75 kthreadd
      3 root      20   0       0      0      0 S   0.0   0.0   0:00.00 pool_wo+
      4 root       0 -20       0      0      0 I   0.0   0.0   0:00.00 kworker+
      5 root       0 -20       0      0      0 I   0.0   0.0   0:00.00 kworker+
      6 root       0 -20       0      0      0 I   0.0   0.0   0:00.00 kworker+
      7 root       0 -20       0      0      0 I   0.0   0.0   0:00.00 kworker+
      9 root       0 -20       0      0      0 I   0.0   0.0   0:00.00 kworker+
1
2
3
4
5
6
7
8
9
10
11

该段是要注意的地方,这里提示 sshd 没运行:

# Notable Processes ##########################################
  PID    OOM    COMMAND
    ?      ?    sshd doesn't appear to be running
1
2
3

该段是内存管理,这里提示开启了透明大页:

# Memory management ##########################################
Transparent huge pages are enabled.
1
2

该段表示结束:

# The End ####################################################
1

扫码关注微信公众号

greatsql-wx