題:
適用於Linux的智能重複文件查找器
H. Freeze
2015-09-28 16:45:18 UTC
view on stackexchange narkive permalink

我要搜索的是一種在Linux中查找重複文件的軟件。我希望它滿足這些要求。

必須具備

  • 在Linux上本地運行(不通過Wine或PlayOnLinux)
  • 能夠根據內容(​​大小,名稱或日期無關緊要)查找重複項
  • 可以手動選擇並批量刪除重複項
  • 能夠掃描ext4和NTFS驅動器

可選

  • GUI
  • 根據大小,時間和編號進行排序。重複項等。
  • 是開源的

無關緊要的東西

  • 計時需要掃描驅動器
  • 掃描時消耗的資源(CPU,GPU或RAM)

那麼有什麼建議嗎?

五 答案:
SeeSpotRun
2015-10-12 04:19:43 UTC
view on stackexchange narkive permalink

rmlint( http://rmlint.readthedocs.org/en/latest/

  • 在Linux上本地運行
  • 能夠可以根據內容查找重複文件
  • 可以手動選擇重複文件並進行批量刪除(創建批處理腳本供您查看/編輯/運行)
  • 能夠同時掃描ext4和NTFS驅動器
  • GUI(在 develop分支中)
  • 根據大小,時間,編號排序。重複項等。
  • 是開源的

而且,即使它們無關緊要:

  • 非常快
  • 即使在具有巨大數據集的情況下,RAM上的光也很亮

需要注意的其他地方:

  • 包括按字節匹配文件的選項SHA1校驗和的數量
  • 可以輸出到csv或json,因此您可以進行進一步的處理和分析
感謝您的建議,rmlint絕對比fdupes快,並且喜歡它如何製作shellscript進行審查。它現在將成為我的主要騙子;)。
//,我確認了對CPU和RAM的要求。如果您知道如何進行整個ctrl + alt + t操作,則建議使用命令行版本。 https://www.youtube.com/watch?v=xLg4HWzlsE8 <<<這個人有一個不錯的視頻,儘管他沒有討論安裝。
dr_
2015-09-28 18:28:54 UTC
view on stackexchange narkive permalink

fdupes應該做您想要的。

來自Wikipedia

fdupes是Adrian Lopez編寫的程序,用於掃描目錄中的重複文件,並具有列出,刪除或替換的選項具有指向重複項的硬鏈接的文件。它首先比較文件大小,部分MD5簽名,完整的MD5簽名,然後執行逐字節比較以進行驗證。

fdupes用C語言編寫,並根據MIT許可證發布。

>
+1是一個很好的建議,它似乎恰好是我需要的軟件,一個gui應該很好,但是如果沒有它,它也可以很好地工作。
如果您喜歡fdupes,則可能還喜歡[samesame](http://samesame.kruijff.org/)套件
@baitisj使用samesame嘗試過,它是fdupes的不錯替代品,但它具有學習曲線。
Nathaniel M. Beaver
2015-10-08 03:11:44 UTC
view on stackexchange narkive permalink

如果需要GUI,則KDE具有 komparator

http://komparator.sourceforge.net/

它使用MD5校驗和,自2013年以來未進行過更新,但是仍然可以正常使用。

+1,感謝您的建議,它的確很棒。儘管使用的是gnome,但它對我來說是依賴地獄;)
Arun
2015-10-22 20:17:35 UTC
view on stackexchange narkive permalink

請檢查findimagedupes( http://tuxdiary.com/2012/05/20/find-visually-like-images-in-ubuntu/),這是Linux上外觀相似的圖像查找器。除了重複之外,它還能找到具有不同分辨率,格式等的相同圖像。

歡迎使用軟件建議-感謝您的分享!儘管它肯定包含解決方案,但該帖子所包含的信息不足,不能視為高質量的答案。請[閱讀有關高質量答案的討論](http://meta.softwarerecs.stackexchange.com/q/356/185),看看是否可以將其中的一些改進納入答案。特別是,您的答案應顯示該產品如何滿足要求以及是什麼使其值得推薦。另外,[最好](http://meta.stackoverflow.com/q/8259)包含該鏈接後面的核心(apt-get)
jamadagni
2019-09-22 15:29:00 UTC
view on stackexchange narkive permalink

fslint http://www.pixelbeat.org/fslint/

GUI and selection of dups to delete

問。

A。什麼算法用於檢查重複文件?在標準安裝中,您可以看到/ usr / share / fslint / fslint / findup中使用的腳本。總之,算法為:

  1. 排除具有唯一長度的文件

  2. 處理彼此硬鏈接的文件

  3. 排除具有唯一md5(第一個_4k(文件))的文件

  4. 排除具有唯一md5(整個文件)的文件

  5. 排除具有唯一sha1(整個文件)的文件(在md5衝突的情況下)。

  6. ol>
  • 其他工具文件重複(錯誤的符號鏈接,空目錄等)
fslint仍在從Python 2依賴項切換,因此目前不是一個好選擇。希望它將盡快升級。


該問答將自動從英語翻譯而來。原始內容可在stackexchange上找到,我們感謝它分發的cc by-sa 3.0許可。
Loading...