CSVファイルのすべてのフィールドから重複パターン/アイテムを削除する

CSVファイルのすべてのフィールドから重複パターン/アイテムを削除する

次の例をデータとして使用して、個々のフィールドから重複項目を削除する方法。

0x,9.4,,,#0,#UNIX#unix,#cli#L#فا#0#فا#0#L#SE#Cli#SE,#فارسی#فارسی#۱#1#١#1,bsh,#V & v

期待される出力(すべての重複項目の削除、大文字と小文字を区別しない、Unicode「ペルシャ語/アラビア語」の違い、項目の順序、および維持する必要がある項目(大文字と小文字を無視する)はここでは重要ではありません):

0x,9.4,,,#0,#unix,#cli#L#فا#0#SE,#فارسی#١#۱#1,bsh,#V & v

パターンはこの形式を使用し、#x1つx以上の文字長を表します。

ペルシャ語/アラビア文字/数値差のUnicode表

答え1

使うシェルのコマンドライン(わずか数行)に適していますパーサー:

perl -CS -Mopen=":std,IN,OUT,IO,:encoding(utf8)" -MText::CSV -lne '
    BEGIN{
        our $csv = Text::CSV->new({ sep_char => "," });
        sub uniq { my %seen;  grep !$seen{lc $_}++, @_; }
    };
    $csv->parse($_) or die "parse error";
    print join ",", map { join "#", uniq split /#/ } $csv->fields();
' file.csv

出力:

0x,9.4,,,#0,#UNIX,#cli#L#فا#0#SE,#فارسی#۱#1#١,bsh,#V & v

メモ:

  • Text::CSVPerlモジュールのインストールが必要:sudo apt-get install libtext-csv-perlDebianおよび派生製品用

答え2

十分Python解決策:

uniq_arabic_csv.pyスクリプト:

#!/bin/python

import sys, re

csv_data = sys.stdin.read().strip()
result = []

for item in csv_data.split(','):
    matches = list(re.finditer(r'#[^#]+', item, re.U | re.I))
    if not matches or len(matches) == 1:
        result.append(item)
    else:
        s, res = set(), []
        for m in matches:
            m = m.group()
            if m.lower() not in s: res.append(m)
            s.add(m.lower())
        result.append(''.join(res))

result = ','.join(result)                    
print(result)

使用法:

s="0x,9.4,,,#0,#UNIX#unix,#cli#L#فا#0#فا#0#L#SE#Cli#SE,#فارسی#فارسی#۱#1#۱#1,bsh,#V & v"
python uniq_arabic_csv.py <<<"$s"

出力:

0x,9.4,,,#0,#UNIX,#cli#L#فا#0#SE,#فارسی#۱#1,bsh,#V & v

答え3

awkまた、以下に簡単なソリューションを作成しました。

awk -F, '{ i=0; comma=""; while (++i<=NF) {
    if ( split(tolower($i), arr, /#/)>1 ){ for(v in arr) !unq[arr[v]]++;printf comma;
        for (x in unq) {printf (x!="")?hash""x:""; hash="#"; delete unq[x]}}
    else {printf comma""$i; comma=","}}; print ""
}' infile.csv

関連情報