shell awk 常用命令

在”a b c d”的b后面插入3个字段e f g

echo a b c d|awk '{$3="e f g "$3}1'

获取ipv4地址:

方法一:

ifconfig | awk '/inet / && !($2 ~/^127/){print $2}'

  方法二:

ifconfig | awk 'BEGIN{RS=""} !/^lo/{print $6}'

  方法三:

ifconfig | awk 'BEGIN{RS="";FS="
"}!/lo/{$0=$2;FS=" ";$0=$0;print $2;FS="
"}'

  读取ini中mysql 的配置文件:

[base]
name=os_repo
baseurl=https://xxx/centos/$releasever/os/$basearch
gpgcheck=0

enable=1

[mysql]
name=mysql_repo
baseurl=https://xxx/mysql-repo/yum/mysql-5.7-community/el/$releasever/$basearch

gpgcheck=0
enable=1

[epel]
name=epel_repo
baseurl=https://xxx/epel/$releasever/$basearch
gpgcheck=0
enable=1
[percona]
name=percona_repo
baseurl = https://xxx/percona/release/$releasever/RPMS/$basearch
enabled = 1
gpgcheck = 0

  

#/[mysql]/
awk '
index($0,"[mysql]"){
  print 
  while ( (getline var) >0){
    if(var ~ /[.*]/){
      exit
    }
    print var 
  }
}' 1.txt 

#getline返回值:
#>0:表示读取到数据
#=0:表示遇到结尾EOF,没有读取到东西
#<0: 表示读取报错

#按段读
awk 'BEGIN{RS=""}
   /[mysql]/{
     print;
     while((getline)>0){
       if(/[.*]/){
         exit
       }
       print
     }
   }' 1.txt

  去除重复的数据:

   awk -F "?" '{arr[$2]=arr[$2]+1;if(arr[$2]==1){print}}' 1.txt

   awk -F "?" '{arr[$2]++;if(arr[$2]==1){print}}' 1.txt

   awk -F "?" '!arr[$2]++' 1.txt

   awk -F "?" '!arr[$2]++{print}' 1.txt

  

2019-01-13_12:00_index?uid=123
2019-01-13_13:00_index?uid=123
2019-01-13_14:00_index?uid=333
2019-01-13_15:00_index?uid=9710
2019-01-14_12:00_index?uid=123
2019-01-14_13:00_index?uid=123
2019-01-15_14:00_index?uid=333
2019-01-16_15:00_index?uid=9710

  awk 次数统计

portmapper
portmapper
portmapper
portmapper
portmapper
portmapper
status
status
mountd
mountd
mountd
mountd
mountd
mountd
nfs
nfs
nfs_acl
nfs
nfs
nfs_acl
nlockmgr
nlockmgr
nlockmgr
nlockmgr
nlockmgr

  

awk '{arr[$0]++}END{for(i in arr){print arr[i],i}}' 1.txt

awk '{arr[$0]++}END{OFS="	";for(idx in arr){print arr[idx],idx}}' 1.txt

 获取tcp连接: netstat -tnap

awk 统计TCP连接状态数量:

netstat -tnp | awk '/^tcp/{arr[$6]++}END{for(i in arr){print arr[i],i}}'

  

netstat -tnap | awk '/^tcp/{arr[$6]++}END{for(state in arr){print arr[state] ": " state}}'

  

netstat -tnap 2>/dev/null | awk '/^tcp/{arr[$6]++}END{for(state in arr){print arr[state] ": " state}}'

  

netstat -tna | /usr/bin/grep 'tcp' | awk '{print $6}' | sort | uniq -c

  统计日志中ip访问非200状态码的次数:

awk '$8!=200{arr[$1]++}END{PROCINFO["sorted_in"]="@val_num_desc";for(i in arr){if(cnt++==10){exit}print arr[i],i}}' access.log

  

awk '$8!=200{arr[$1]++}END{for(i in arr){print arr[i],i}}' access.log | sort -k1nr | head -n 10

  awk 统计独立Ip

url访问ip反问时间反问人

a.com.cn|202.109.134.23|2015-11-20 20:34:43|guest
b.com.cn|202.109.134.23|2015-11-20 20:34:48|guest
c.com.cn|202.109.134.24|2015-11-20 20:34:48|guest
a.com.cn|202.109.134.23|2015-11-20 20:34:43|guest
a.com.cn|202.109.134.24|2015-11-20 20:34:43|guest
b.com.cn|202.109.134.25|2015-11-20 20:34:48|guest

  

BEGIN{
  FS="|"
}
{
if(!arr[$1,$2]++){
  arr1[$1]++
}
}
END{
  for(i in arr1){
    print i,arr1[i] >(i".txt")
  }
}

  

BEGIN{
  FS="|"
}
!arr[$1,$2]++{
  arr1[$1]++
}
END{
   for(i in arr1){
    print i,arr1[i] >(i".txt")
  }
}

  执行:

awk -f 1.awk 1.txt

  awk处理字段缺失的数据:

ID  name    gender  age  email          phone
1   Bob     male    28   abc@qq.com     18023394012
2   Alice   female  24   def@gmail.com  18084925203
3   Tony    male    21                  17048792503
4   Kevin   male    21   bbb@189.com    17023929033
5   Alex    male    18   ccc@xyz.com    18185904230
6   Andy    female       ddd@139.com    18923902352
7   Jerry   female  25   exdsa@189.com  18785234906
8   Peter   male    20   bax@qq.com     17729348758
9   Steven          23   bc@sohu.com    15947893212
10  Bruce   female  27   bcbd@139.com   13942943905

  gawk为了解决这种特殊需求,提供了FIELDWIDTHS变量。

awk '{print $4}' FIELDWIDTHS="2 2:6 2:6 2:3 2:13 2:11" a.txt

  

BEGIN{
   FIELDWIDTHS="2 2:6 2:6 2:3 2:13 2:11"
}
{
  print $0
}

  awk 处理字段中包含了字段分隔符的数据

Robbins,Arnold,"1234 A Pretty Street, NE",MyTown,MyState,12345-6789,USA

  需求:取得第三个字段”1234 A Pretty Street, NE”

FPAT可以收集正则匹配的结果,并将它们保存在各个字段中。(就像grep匹配成功的部分会加颜色显示,而使用FPAT划分字段,则是将匹配成功的部分保存在字段$1 $2 $3...中)。

echo 'Robbins,Arnold,"1234 A Pretty Street, NE",MyTown,MyState,12345-6789,USA' |
awk 'BEGIN{FPAT="[^,]+|".*""}{print $1,$3}'

  方法2:

BEGIN{
  FPAT="[^,]+|".*""
}
{
  print $1,$3
}

  

awk -f 1.awk 1.txt

  awk 取字段中指定字符数量

16  001agdcdafasd
16  002agdcxxxxxx
23  001adfadfahoh
23  001fsdadggggg

  

awk '{print $1,substr($2,1,3)}' 1.txt

  

awk '{print $1,$2}' FIELDWIDTH="2 2:3" 1.txt
awk 'BEGIN{FIELDWIDTH="2 2:3"}{print $1,$2}' 1.txt

  awk 行转列

name age
alice 21
ryan 30

  

{
  for(i=1;i<=NF;i++){
    if(i in arr){
      arr[i]=arr[i]" "$i
    }else{
      arr[i]=$i
    }
  }
}

END{
  for(i=1;i<=NF;i++){
    print arr[i]
  }
}

  awk 筛选给定是时间范围内的日志

grep/sed/awk用正则去筛选日志时,如果要精确到小时、分钟、秒,则非常难以实现

但是awk提供了mktime()函数,它可以将时间转换成epoch时间值

# 2019-11-10 03:42:40转换成epoch
$ awk 'BEGIN{print mktime("2019 11 10 03 42 40")}'
1573328560

  可以取得日志中的时间字符串部分,再将它们的年、月、日、时、分、秒都取出来,然后放入mktime()构建成对应的epoch值。因为epoch值是数值,所以可以比较大小,从而决定时间的大小

strptime1()实现的是将2019-11-10T03:42:40+08:00格式的字符串转换成epoch值,然后和which_time比较大小即可筛选出精确到秒的日志

BEGIN{
  str="2019-11-10T20:25:39+08:00"
  #strptime(str) 筛选什么时间的日志,将其构建成epoch 值
  which_time=mktime("2019 11 10 03 42 40")
}

{
  #去除日志中的日期时间字符串部分
  match($0,"^.*\[(.*)\].*",arr)
  #将日期时间字符串转换成eposh值
  tmp_time=strptime(arr[1])
  #通过比较epoch值来比较时间
  if(tmp_time>which_time){
    print
  }
}

function strptime (str   ,arr,Y,M,D,H,m,S)
{
  patsplit(str,arr,"[0-9]{1,4}")
  Y=arr[1]
  M=arr[2]
  D=arr[3]
  H=arr[4]
  m=arr[5]
  S=arr[6]
  return mktime(sprintf("%s %s %s %s %s %s",Y,M,D,H,m,S))
}

  

strptime2()实现的是将10/Nov/2019:23:53:44+08:00格式的字符串转换成epoch值,然后和which_time比较大小即可筛选出精确到秒的日志。

BEGIN{
  # 要筛选什么时间的日志,将其时间构建成epoch值
  which_time = mktime("2019 11 10 03 42 40")
}

{
  # 取出日志中的日期时间字符串部分
  match($0,"^.*\[(.*)\].*",arr)
  
  # 将日期时间字符串转换为epoch值
  tmp_time = strptime2(arr[1])
  
  # 通过比较epoch值来比较时间大小
  if(tmp_time > which_time){
    print 
  }
}

# 构建的时间字符串格式为:"10/Nov/2019:23:53:44+08:00"
function strptime2(str   ,dt_str,arr,Y,M,D,H,m,S) {
  dt_str = gensub("[/:+]"," ","g",str)
  # dt_sr = "10 Nov 2019 23 53 44 08 00"
  split(dt_str,arr," ")
  Y=arr[3]
  M=mon_map(arr[2])
  D=arr[1]
  H=arr[4]
  m=arr[5]
  S=arr[6]
  return mktime(sprintf("%s %s %s %s %s %s",Y,M,D,H,m,S))
}

function mon_map(str   ,mons){
  mons["Jan"]=1
  mons["Feb"]=2
  mons["Mar"]=3
  mons["Apr"]=4
  mons["May"]=5
  mons["Jun"]=6
  mons["Jul"]=7
  mons["Aug"]=8
  mons["Sep"]=9
  mons["Oct"]=10
  mons["Nov"]=11
  mons["Dec"]=12
  return mons[str]
}

  awk去除/**/之间的内容

文档:

/*AAAAAAAAAA*/
1111
222

/*aaaaaaaaa*/
32323
12341234
12134 /*bbbbbbbbbb*/ 132412

14534122
/*
    cccccccccc
*/
xxxxxx /*ddddddddddd
    cccccccccc
    eeeeeee
*/ yyyyyyyy
5642341

  两种实现方式:

//*/{
  #同行有*/
  if(/*//){
    print gensub("(.*)/\*.*\*/(.*)","\1\2","g",$0)
  }else{
    #同行没有“*/”
    # 1.去掉/*行后面的内容
    print gensub("(.*)/\*.*","\1","g",$0)

    #2.继续读取,直到出现*/,并去掉中间的所有数据
    while((getline)>0){
       if(/*//){
         print gensub(".*\*/(.*)","\1","g",$0)
       }
    }
  }
}
#非注释内容
!//*/{print}



index($0,"/*"){
  #如果*/在同行
  if(index($0,"*/")){
    print gensub("^(.*)/\*.*\*/(.*)$","\1\2","g",$0)
  }else{
    #*/不同行
    #输出/*前面的内容
    print gensub("^(.*)/\*.*","\1","g",$0)

    #继续读取,直到遇到*/结束符
    while((getline var)>0){
      if(index(var,"*/")){
        print gensub("^.*\*/(.*)","\1","g",var)
        break 
      }
    }
  }  
}

!index($0,"/*"){
  print
}

  从如下类型的文件中,找出false段的前一段为i-order的段,同时输出这两段

2019-09-12 07:16:27 [-][
  'data' => [
    'http://192.168.100.20:2800/api/payment/i-order',
  ],
]
2019-09-12 07:16:27 [-][
  'data' => [
    false,
  ],
]
2019-09-21 07:16:27 [-][
  'data' => [
    'http://192.168.100.20:2800/api/payment/i-order',
  ],
]
2019-09-21 07:16:27 [-][
  'data' => [
    'http://192.168.100.20:2800/api/payment/i-user',
  ],
]
2019-09-17 18:34:37 [-][
  'data' => [
    false,
  ],
]

  方法1:

BEGIN{
  RS="]
"
  ORS=RS
}
{
  if($0 ~ /false/ && prev ~ /i-order/){
    print prev
    print $0
  }
  prev=$0
}

  

grep -Pz '(?s)d+((?!2019).)*i-order(?1)+d+(?1)+false(?1)+' 

  





原文地址:https://www.cnblogs.com/sunliyuan/p/14235250.html