linux中awk的用法

    技术2022-07-10  102

    linux中awk的用法 1、: syntax on 将代码显示高亮 显示结果如下: 2、: set number 显示行号,结果如下(文本左侧显示了行号) 3、作为linux中最为常用的三大文本(awk,sed,grep)处理工具之一,掌握好其用法是很有必要的。下面主要介绍 awk用法

    转载:http://blog.chinaunix.net/uid-23302288-id-3785105.html.

    整体格式如下: awk [-F|-f|-v] ‘BEGIN{} //{command1; command2} END{}’ file

    awk [-F|-f|-v] ‘BEGIN{} //{command1; command2} END{}’ file [-F|-f|-v] 大参数,-F指定分隔符,-f调用脚本,-v定义变量 var=value ' ' 引用代码块 BEGIN 初始化代码块,在对每一行进行处理之前,初始化代码,主要是引用全局变量,设置FS分隔符 // 匹配代码块,可以是字符串或正则表达式 {} 命令代码块,包含一条或多条命令 ; 多条命令使用分号分隔 END 结尾代码块,在对每一行进行处理之后再执行的代码块,主要是进行最终计算或输出结尾摘要信息 特殊要点: $0 表示整个当前行 $1 每行第一个字段 NF 字段数量变量,Number of Fileds - 当前行有多少列数据 NR 每行的记录号,多文件记录递增,Number of Record - 当前处理的行是第几行 FNR 与NR类似,不过多文件记录不递增,每个文件都从1开始 \t 制表符 \n 换行符 FS BEGIN时定义分隔符,字段分隔字符 FS (field seperator) RS 输入的记录分隔符, 默认为换行符(即文本是按一行一行输入),RS是记录分隔符,默认的分隔符是\n, ~ 匹配,与==相比不是精确比较 !~ 不匹配,不精确比较 == 等于,必须全部相等,精确比较 != 不等于,精确比较 &&  逻辑与 || 逻辑或 + 匹配时表示1个或1个以上 /[0-9][0-9]+/ 两个或两个以上数字 /[0-9][0-9]*/ 一个或一个以上数字 FILENAME 文件名 OFS 输出字段分隔符, 默认也是空格,可以改为制表符等 ORS 输出的记录分隔符,默认为换行符,即处理结果也是一行一行输出到屏幕 -F'[:#/]' 定义三个分隔符 (1) OFS:输出分割符,可以让第3和第四列中间的输出结果增加分隔符|,如 awk ‘BEGIN{OFS=|;} {print $3,$4;}’ coins.txt等同于 awk ‘BEGIN{FS=" ";OFS=|;} {print $3,$4;}’ coins.txt

    (2) FS:字段分割符,将原先coins.txt中的逗号换成了分隔符 注:将gold, 1 1986 USA American Eagle变成了gold|1 1986 USA American Eagle awk 'BEGIN{FS=",";OFS="|"}{print $1,$2}' coins.txt

    (3) 叠加内容,将两个文件coins.txt 和 testdata.txt的内容同时输出出来 awk '{print NR, $0}' coins.txt testdata.txt

    -(4) FILENAME 输出文件名

    awk '{print NR, FILENAME, $0}' coins.txt testdata.txt

    (5) 插入数据,在print之前定义 awk '{$2="&*&";print $0}' coins.txt

    (6) NF:Number of Fileds - 当前行有多少列数据NF-1:每行的倒数第二个的位置$(NF-1):每行的倒数第二个数据的值 awk '{print $(NF-1)}' coins.txt

    (7) 保存输入的结果到另一个文件,将每行都加上fail字段,最后保存在coins1.txt 文件中 awk '{$(NF+1)=“fail”;print $(0}' coins1.txt

    在前面输入行号,并将结果保存 awk '{$1=NR; print $(0}' coins1.txt > coins.txt

    (8) 多行命令用分号;分割 awk '{a=1;b=3;peint a,b}'

    (9) END{print }:在输出后面增加结果提示 awk -F ":" '{print $1,$2} END{print "END"}' coins.txt

    注:持续更新中… …

    Processed: 0.008, SQL: 9