グループ固有のコマンド?

グループ固有のコマンド?

次の形式のファイルからインポートするコマンドを探しています。

hello 32
hello 67
hi    2
ho    1212
ho    1390
ho    3000

この形式を使用すると(「グループ」の最後の行を取得して重複排除):

hello 67
hi    2
ho    3000

現在私はPythonとpandasスニペットを使用しています。

    df = pd.read_csv(self.input().path, sep='\t', names=('id', 'val'))

    # how to replace this logic with shell commands?
    surface = df.drop_duplicates(cols=('id'), take_last=True)

    with self.output().open('w') as output:
        surface.to_csv(output, sep='\t', cols=('id', 'val'))

更新:素晴らしい答えに感謝します。以下はいくつかのベンチマークです。

入力ファイルサイズは246Mで、8583313行を含みます。順序は重要ではありません。最初の列のサイズは9文字で固定されています。

入力ファイルの例:

000000027       20131017023259.0        00
000000027       20131017023259.0        11
000000035       20130827104320.0        01
000000035       20130827104320.0        04
000000043       20120127083412.0        01
...

                              time        space complexity

tac .. | sort -k1,1 -u        27.43682s   O(log(n))
Python/Pandas                 11.76063s   O(n)
awk '{c[$1]=$0;} END{for(...  11.72060s   O(n)

最初の列の長さは固定されているため、次のものを使用することもuniq -wできます。

tac {input} | uniq -w 9        3.25484s   O(1)

答え1

これは狂ったようで、より良い方法があったらと思いますが、次のようになります。

tac foo | sort -k 1,1 -u

tacファイルを反転して最初のファイルの代わりに最後のファイルをインポートするために使用されます。

-k 1,1比較のために最初のフィールドだけを使用すると言います。

-uユニークに作ってください。

答え2

出力順序が気に入らない場合、awk回避策は次のとおりです。

$ awk '
    {a[$1] = !a[$1] ? $2 : a[$1] < $2 ? $2 : a[$1]}
    END {
        for (i in a) { print i,a[i] }
    }
' file
hi 2
hello 67
ho 3000

答え3

追加オプション:

  1. perl、行の順序に興味がない場合。

    perl -lane '$k{$F[0]}=$F[1]; END{print "$_ $k{$_}" for keys(%k)}' file
    
  2. もっと簡単awk

    awk '{c[$1]=$0;} END{for(i in c){print c[i]}}' file
    
  3. 愚かな殻

    while read a b; do grep -w ^"$a" file | tail -n1 ; done < file | uniq
    

答え4

それではあなたはできます。sort

sort -u -k1,1 test

編集する:タックは解決策です

関連情報