TranslateProject/translated/tech/20150106 How to deduplicate files on Linux with dupeGuru.md
2015-01-11 11:13:08 +08:00

5.0 KiB
Raw Blame History

如何在Linux上使用dupeGuru删除重复文件

最近,我被要求清理我父亲的文件和文件夹。有一个难题是,里面存在很多不正确的名字的重复文件。有移动硬盘的备份,同时还为同一个文件编辑了多个版本,甚至改变的目录结构,同一个文件被复制了好几次,改变名字,改变位置等,这些挤满了磁盘空间。追踪每一个文件成了一个最大的问题。万幸的是,有一个小巧的软件可以帮助你省下很多时间来找到删除你系统中重复的文件:dupeGuru。它用Python写成这个去重软件几个小时钱前切换到了GPLv3许可证。因此是时候用它来清理你的文件了

dupeGuru的安装

在Ubuntu上 你可以加入Hardcoded的软件PPA

$ sudo apt-add-repository ppa:hsoft/ppa
$ sudo apt-get update 

接着用下面的命令安装:

$ sudo apt-get install dupeguru-se 

在ArchLinux中这个包在AUR中。

如果你想自己编译,源码在GitHub上。

dupeGuru的基本使用

DupeGuru的构想是既快又安全。这意味着程序不会在你的系统上疯狂地运行。它很少会删除你不想要删除的文件。然而既然在讨论文件删除保持谨慎和小心总是好的备份总是需要的。

你看完注意事项后你可以用下面的命令运行duprGuru了

$ dupeguru_se 

你应该看到要你选择文件夹的欢迎界面,在这里加入你你想要扫描的重复文件夹。

一旦你选择完文件夹并启动扫描后dupeFuru会以列表的形式显示重复文件的组

注意的是默认上dupeGuru基于文件的内容匹配而不是他们的名字。为了防止意外地删除了重要的文件匹配那列列出了使用的匹配算法。在这里你可以选择你想要删除的匹配文件并按下“Action” 按钮来看到可用的操作。

可用的选项是相当广泛的。简而言之,你可以删除重复、移动到另外的位置、忽略它们、打开它们、重命名它们甚至用自定义命令运行它们。如果你选择删除重复文件,你可能会像我一样非常意外竟然还有删除选项。

你不及可以将删除文件移到垃圾箱或者永久删除,还可以选择留下指向原文件的链接(软链接或者硬链接)。也就是说,重复文件按将会删除但是会保留下指向原文件的链接。这将会省下大量的磁盘空间。如果你将这些文件导入到工作空间或者它们有一些依赖时很有用。

还有一个奇特的选项你可以用HTML或者CSV文件导出结果。不确定你会不会这么做但是我假设你想追踪重复文件而不是想让dupeGuru处理它们时会有用。

最后但并不是最不重要的是,偏好菜单可以让你对去重的想法成真。

这里你可以选择扫描的标准基于内容还是基于文字并且有一个阈值来控制结果的数量。这里同样可以定义自定义在执行中可以选择的命令。在无数其他小的选项中要注意的是dupeGuru默认忽略小于10KB的文件。

要了解更多的信息,我建议你到official website官方网站看下,这里有很多文档、论坛支持和其他好东西。

总结一下dupeGuru是我无论何时准备备份或者释放空间时想到的软件。我发现这对高级用户而言也足够强大了对新人而言也很直观。锦上添花的是dupeGuru是跨平台的额这意味着你可以在Mac或者在Windows PC上都可以使用。如果你有特定的需求想要清理音乐或者图片。这里有两个变种dupeguru-medupeguru-pe 相应地可以清理音频和图片文件。与常规版本的不同是它不仅比较文件格式还比较特定的媒体数据像质量和码率。

你dupeGuru怎么样你会考虑使用它么或者你有任何可以替代的软件的建议么让我在评论区知道你们的想法。


via: http://xmodulo.com/dupeguru-deduplicate-files-linux.html

作者:Adrien Brochard 译者:geekpi 校对:校对者ID

本文由 LCTT 原创翻译,Linux中国 荣誉推出