デフォルトでは、次の内容を含む4つのtxtファイルがあります。
FILE 1
localhost_access_2018-07-19.tar.gz:13
localhost_access_2018-07-20.tar.gz:17
localhost_access_2018-07-21.tar.gz:12
localhost_access_2018-07-22.tar.gz:4
localhost_access_2018-07-23.tar.gz:2
localhost_access_2018-07-24.tar.gz:2905
localhost_access_2018-07-25.tar.gz:10440
localhost_access_2018-07-26.tar.gz:2644
localhost_access_2018-07-27.tar.gz:1896
localhost_access_2018-07-28.tar.gz:1238
localhost_access_2018-07-29.tar.gz:932
FILE 2
localhost_access_2018-06-19.tar.gz:0
localhost_access_2018-06-20.tar.gz:0
localhost_access_2018-06-21.tar.gz:1
localhost_access_2018-06-22.tar.gz:0
localhost_access_2018-06-23.tar.gz:0
localhost_access_2018-06-24.tar.gz:0
localhost_access_2018-06-25.tar.gz:0
localhost_access_2018-06-26.tar.gz:1
localhost_access_2018-06-27.tar.gz:0
localhost_access_2018-07-04.tar.gz:2
localhost_access_2018-07-05.tar.gz:3
localhost_access_2018-07-06.tar.gz:6
localhost_access_2018-07-07.tar.gz:0
localhost_access_2018-07-19.tar.gz:15
など。
4つのファイルのそれぞれには、このような重複した日付がありますが、localhost_access_2018-07-19.tar.gz:15
最後の数字は異なります(以降)。
同じ日付に対して ""を切り取り、local_host_access_
新しいtxtファイルの日付のみを保持し(値と形式を変更せずに).tar.gzを切り捨てる必要があります。
また、同じ日付のすべての値を合計する必要があります。
したがって、4つの異なるファイルに4つの「localhost_access_2018-07-19」日付がある場合は、値.gz:"XYZ"の後にあるすべての数字XYZを合計する必要があります。
例:
localhost_access_2018-07-19.tar.gz:1
localhost_access_2018-07-19.tar.gz:2
localhost_access_2018-07-19.tar.gz:3
localhost_access_2018-07-19.tar.gz:4
新しいファイルから単一のテキスト出力として返す必要があります。
2018-07-19:10
入れた答えで頑張るしかし、より良い解決策(そして説明)があることを願っています。ありがとうございます。
答え1
また、次の簡単なawk
方法を試してください。
awk -F"[_.:]" ' # set field separator to "_", ".", or ":"
{SUM[$3] += $NF # sum all trailing fields in array indexed by the date
}
END {for (s in SUM) print s, SUM[s] # print the date and the respective sum
}
' OFS=":" file[123] # set output field separator; have shell expand file names 1 - 3
答え2
awk -F 'localhost_access_' '
{
n=substr($2,1+index($2,":"));
gsub(".tar.gz.*","",$2);
str[$2]+=n
}
END{
for (i in str){
print i":"str[i]
}
}' node1.txt node2.txt node3.txt node4.txt | sort -to > output.txt
output_not_sorted=$(cat output.txt);
# sort output by date
exit
この問題を改善できるかどうか教えてください。
答え3
質問の冒頭に示されている2つのファイルを考慮し、実際に空白行が含まれていないとします。
$ awk -F ':' -v OFS=':' '
{ sum[$1]+=$2 }
END { for (key in sum) {
split(key,f,"[_.]")
print f[3],sum[key] } }' file* | sort
2018-06-19:0
2018-06-20:0
2018-06-21:1
2018-06-22:0
2018-06-23:0
2018-06-24:0
2018-06-25:0
2018-06-26:1
2018-06-27:0
2018-07-04:2
2018-07-05:3
2018-07-06:6
2018-07-07:0
2018-07-19:28
2018-07-20:17
2018-07-21:12
2018-07-22:4
2018-07-23:2
2018-07-24:2905
2018-07-25:10440
2018-07-26:2644
2018-07-27:1896
2018-07-28:1238
2018-07-29:932
ファイル名を連想配列のキーとして使用しsum
、その中の各ファイル名の合計を収集します。最後にキーを繰り返しsum
、各キーの日付部分と合計を印刷します。キーの日付部分は、ドットと下線で除算した後の3番目のフィールドです。
結果はパイプラインですsort
。
短いが基本的に上記と同じです(ただし、日付を配列のキーとして使用する場合のみsum
):
awk -F '[_.:]' -v OFS=':' '
{ sum[$3]+=$6 }
END { for (d in sum) print d, sum[d] }' file*
答え4
#!/bin/bash
# Sum duplicate row values with awk ; Columns 3 and 6
awk -F '[_.:]' '{seen[$3]+=$6}END{for (i in seen) print i, seen[i]}' OFS=":" node[1-4].txt |
sort > log.txt
「#awkを使用した重複行値の合計」のソース https://stackoverflow.com/questions/42024296/sum-duplicate-row-values-with-awk