次の例をデータとして使用して、個々のフィールドから重複項目を削除する方法。
0x,9.4,,,#0,#UNIX#unix,#cli#L#فا#0#فا#0#L#SE#Cli#SE,#فارسی#فارسی#۱#1#١#1,bsh,#V & v
期待される出力(すべての重複項目の削除、大文字と小文字を区別しない、Unicode「ペルシャ語#۱
/アラビア#١
語」の違い、項目の順序、および維持する必要がある項目(大文字と小文字を無視する)はここでは重要ではありません):
0x,9.4,,,#0,#unix,#cli#L#فا#0#SE,#فارسی#١#۱#1,bsh,#V & v
パターンはこの形式を使用し、#x
1つx
以上の文字長を表します。
答え1
使う真珠シェルのコマンドライン(わずか数行)に適していますデータセットパーサー:
perl -CS -Mopen=":std,IN,OUT,IO,:encoding(utf8)" -MText::CSV -lne '
BEGIN{
our $csv = Text::CSV->new({ sep_char => "," });
sub uniq { my %seen; grep !$seen{lc $_}++, @_; }
};
$csv->parse($_) or die "parse error";
print join ",", map { join "#", uniq split /#/ } $csv->fields();
' file.csv
出力:
0x,9.4,,,#0,#UNIX,#cli#L#فا#0#SE,#فارسی#۱#1#١,bsh,#V & v
メモ:
Text::CSV
Perlモジュールのインストールが必要:sudo apt-get install libtext-csv-perl
Debianおよび派生製品用
答え2
十分Python
解決策:
uniq_arabic_csv.py
スクリプト:
#!/bin/python
import sys, re
csv_data = sys.stdin.read().strip()
result = []
for item in csv_data.split(','):
matches = list(re.finditer(r'#[^#]+', item, re.U | re.I))
if not matches or len(matches) == 1:
result.append(item)
else:
s, res = set(), []
for m in matches:
m = m.group()
if m.lower() not in s: res.append(m)
s.add(m.lower())
result.append(''.join(res))
result = ','.join(result)
print(result)
使用法:
s="0x,9.4,,,#0,#UNIX#unix,#cli#L#فا#0#فا#0#L#SE#Cli#SE,#فارسی#فارسی#۱#1#۱#1,bsh,#V & v"
python uniq_arabic_csv.py <<<"$s"
出力:
0x,9.4,,,#0,#UNIX,#cli#L#فا#0#SE,#فارسی#۱#1,bsh,#V & v
答え3
awk
また、以下に簡単なソリューションを作成しました。
awk -F, '{ i=0; comma=""; while (++i<=NF) {
if ( split(tolower($i), arr, /#/)>1 ){ for(v in arr) !unq[arr[v]]++;printf comma;
for (x in unq) {printf (x!="")?hash""x:""; hash="#"; delete unq[x]}}
else {printf comma""$i; comma=","}}; print ""
}' infile.csv