我的硬盘中存储了大约 1 TB 的图像。这些是朋友和家人长时间拍摄的照片。从某种意义上说,这些图片中的许多都是重复的,相同的文件保存在不同的位置,可能也具有不同的名称。我想问是否有任何工具、实用程序或方法(我可以编写一个)来找出重复的文件。
我建议使用md5deep 或 sha1deep。在 Linux 上只需安装软件包md5deep
(它包含在大多数 Linux 发行版中)。
安装完成后,只需在整个磁盘上以递归模式运行它,并使用如下命令将磁盘上每个文件的校验和保存到文本文件中:
md5deep -r -l . > filelist.txt
如果你喜欢sha1
比md5
, use sha1deep
相反(它是同一包的一部分)。
有了文件后,只需使用以下命令对其进行排序即可sort
(或通过管道将其输入sort
在上一步中):
sort < filelist.txt > filelist_sorted.txt
现在,只需使用任何文本编辑器查看结果 - 您将很快看到所有重复项及其在磁盘上的位置。
如果您愿意,您可以用 Perl 或 Python 编写简单的脚本来根据此文件列表删除重复项。
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)