我可以从小文本文件中删除重复条目,但不能从大文本文件中删除重复条目。
我有一个 4MB 的文件。
文件的开头如下所示:
aa
aah
aahed
aahed
aahing
aahing
aahs
aahs
aal
aalii
aalii
aaliis
aaliis
...
我想删除重复项。
例如,“aahed”出现两次,而我只希望它出现一次。
无论我尝试过什么俏皮话,大名单都不会改变。
如果输入:排序 big_list.txt |优衣库 |较少的
I see:
aa
aah
aahed
aahed <-- didn't get rid of it
aahing
aahing <-- didn't get rid of it
aahs
aahs <-- didn't get rid of it
aal
...
但是,如果我从该文本文件的顶部复制一小块单词并对一小块数据重新运行该命令,它会执行预期的操作。
这些程序是否因为文件太大而拒绝排序?我没想到4MB很大。它不会输出警告或任何内容。
我很快编写了自己的“uniq”程序,它具有相同的行为。它适用于列表的一小部分,但不会对 4MB 文本文件执行任何操作。我的问题是什么?
EDIT:这是一个十六进制转储:
00000000 61 61 0a 61 61 68 0a 61 61 68 65 64 0a 61 61 68 |aa.aah.aahed.aah|
00000010 65 64 0d 0a 61 61 68 69 6e 67 0a 61 61 68 69 6e |ed..aahing.aahin|
00000020 67 0d 0a 61 61 68 73 0a 61 61 68 73 0d 0a 61 61 |g..aahs.aahs..aa|
00000030 6c 0a 61 61 6c 69 69 0a 61 61 6c 69 69 0d 0a 61 |l.aalii.aalii..a|
00000040 61 6c 69 69 73 0a 61 61 6c 69 69 73 0d 0a 61 61 |aliis.aaliis..aa|
61 61 68 65 64 0a
a a h e d \r
61 61 68 65 64 0d
a a h e d \n
解决:不同的行分隔符