天天看点

Linux awd

awk也是流式编辑器,针对文档中的行来操作,一行一行地执行。awk兼具sed的所有功能,而且更加强大。

实验如下:

[root@localhost ~]# mkdir awk

[root@localhost ~]# cp /etc/passwd awk/test.txt

[root@localhost ~]# cd awk

[root@localhost awk]# ls

test.txt

[root@localhost awk]# awk -F ':' '{print $1}' test.txt   #打印第1个字段

root

bin

daemon

adm

lp

sync

shutdown

halt

mail

operator

games

ftp

nobody

dbus

polkitd

avahi

avahi-autoipd

postfix

sshd

systemd-network

本实验是以test.txt 为例,-F选项的作用是指定分隔符 单引号里面为分隔符 print的动作要用{}括起来,否则会报错,print还可以打印自定义的内容,但是内容要用双引号括起来。$1为第1个字段,$2为第二个字段 以此类推

[root@localhost awk]# awk -F ':' '{print $1,$2}' test.txt   # 表示打印第1,2个字段

root x

bin x

daemon x

adm x

lp x

sync x

[root@localhost awk]# awk -F ':' '{print $0}' test.txt   #$0 表示打印全部字段, 类似cat的命令

root:x:0:0:root:/root:/bin/bash

bin:x:1:1:bin:/bin:/sbin/nologin

daemon:x:2:2:daemon:/sbin:/sbin/nologin

adm:x:3:4:adm:/var/adm:/sbin/nologin

lp:x:4:7:lp:/var/spool/lpd:/sbin/nologin

[root@localhost awk]# head -n 2 test.txt |awk -F ':' '{print $1"@"$2"@"}'  #print打印自定义的内容 @

awd 匹配功能

[root@localhost awk]# awk '/0*/' test.txt   #匹配0个或是多个o的行   和grep相同

sync:x:5:0:sync:/sbin:/bin/sync

[root@localhost awk]# awk -F ':' '$1 ~ /oo/' test.txt  #匹配第1段 oo的行

[root@localhost awk]# awk -F ':' '$1 ~ /o+/' test.txt  #匹配第1段 带有o的行

shutdown:x:6:0:shutdown:/sbin:/sbin/shutdown

operator:x:11:0:operator:/root:/sbin/nologin

nobody:x:99:99:Nobody:/:/sbin/nologin

polkitd:x:999:998:User for polkitd:/:/sbin/nologin

avahi-autoipd:x:170:170:Avahi IPv4LL Stack:/var/lib/a

[root@localhost awk]# awk -F ':' '/root/ {print $1,$2} /user/ {print $1,$3,$4}' test.txt   #awk 支持匹配包含root 和user的

operator x

[root@localhost awk]# awk -F ':' '/root|user/ {print $0}' test.txt  #全文打印包 含root和user的行

数学表达式

[root@localhost awk]# awk -F ':' '$3==0 {print $1}' test.txt  #打印第3字段为0的 第1个字段

[root@localhost awk]# awk -F ':' '$3>=10 {print $3}' test.txt  #打印第3个字段 大于等于10 的第三个字段

11

12

14

99

81

999

70

170

[root@localhost awk]# awk -F ':' '$7!="nologin" {print $0}' test.txt  #打印全文 第7段不是nologin的行

[root@localhost awk]# awk -F ':' '$3<$4' test.txt  #两个字段比较

mail:x:8:12:mail:/var/spool/mail:/sbin/nologin

games:x:12:100:games:/usr/games:/sbin/nologin

ftp:x:14:50:FTP User:/var/ftp:/sbin/nologin

[root@localhost awk]# awk -F ':' '$3>"5" && $3<"7"' test.txt # &&并且  第3个段大于5  并且 是小于7的行

[root@localhost awk]# awk -F ':' '$3>"1000" || $7=="bin/bash"' test.txt  #||表示或者  这里表示第3个字段大于1000或是第7字段是bin/bash的行

[root@localhost awk]# awk -F ':' '{OFS="#"} {print $1,$2,$3}' test.txt #利用OFS 定义符号并打印  等同于[root@localhost awk]# awk -F ':' '{print $1"#"$2"#"$3"#"}' test.txt

root#x#0

bin#x#1

daemon#x#2

adm#x#3

lp#x#4

sync#x#5

shutdown#x#6

halt#x#7

[root@localhost awk]# awk -F ':' '{OFS=="#"} {if($3>10) {print $1,$2,$3}}' test.txt  # 标准写法

operator x 11

games x 12

ftp x 14

nobody x 99

dbus x 81

polkitd x 999

avahi x 70

avahi-autoipd x 170

[root@localhost awk]# awk -F ':' '{print NR ":" $0}' test.txt   # 打印行号 类似grep -n   NR为行号

1:root:x:0:0:root:/root:/bin/bash

2:bin:x:1:1:bin:/bin:/sbin/nologin

3:daemon:x:2:2:daemon:/sbin:/sbin/nologin

4:adm:x:3:4:adm:/var/adm:/sbin/nologin

5:lp:x:4:7:lp:/var/spool/lpd:/sbin/nologin

6:sync:x:5:0:sync:/sbin:/bin/sync

7:shutdown:x:6:0:shutdown:/sbin:/sbin/shutdown

8:halt:x:7:0:halt:/sbin:/sbin/halt

[root@localhost awk]# awk -F ':' '{print NF ":"$0}' test.txt  #NF表示分段号,打 印全文分段号

7:root:x:0:0:root:/root:/bin/bash

7:bin:x:1:1:bin:/bin:/sbin/nologin

7:daemon:x:2:2:daemon:/sbin:/sbin/nologin

7:adm:x:3:4:adm:/var/adm:/sbin/nologin

7:lp:x:4:7:lp:/var/spool/lpd:/sbin/nologin

7:sync:x:5:0:sync:/sbin:/bin/sync

[root@localhost awk]# awk -F ':' 'NR<=10' test.txt   #作为判定条件 10行以下的限 定

halt:x:7:0:halt:/sbin:/sbin/halt

[root@localhost awk]# sed -n '1,10'p test.txt #打印前10行

[root@localhost awk]# head -n 3 test.txt |awk -F ':' '{OFS=":"} $1="root"' #awk 更改段值

root:x:1:1:bin:/bin:/sbin/nologin

root:x:2:2:daemon:/sbin:/sbin/nologin

[root@localhost awk]# awk -F ':' '{(tot=tot+$3)}; END {print tot}' test.txt #计 算某段总和

1847

本文转自 yzllinux博客,原文链接:     http://blog.51cto.com/12947851/2062277   如需转载请自行联系原作者

继续阅读