V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
luckjoe680
V2EX  ›  NAS

求 NAS 照片去重方案

  •  
  •   luckjoe680 · 74 天前 via Android · 2892 次点击
    这是一个创建于 74 天前的主题,其中的信息可能已经有所发展或是发生改变。
    大佬们 有没有用起来不错的 nas 照片跟视频的去重方案呀 有很多重复的备份照片 很头疼 求分享
    24 条回复    2023-03-16 15:29:35 +08:00
    stevenbipt
        1
    stevenbipt  
       74 天前
    如果是文件相同写个脚本跑一下文件的 hash 应该就能找出来了,如果是文件不同比如分辨率不同这种图片找 cv 库看看有没有什么对比算法,视频的话感觉够呛,可以考虑一下视频的特征这些是否相同来匹配一下
    coderluan
        2
    coderluan  
       74 天前
    把磁盘挂载到 Windows 下面,然后随便找个去重软件跑一下,Duplicate File Finder 之类的
    yfugibr
        3
    yfugibr  
       74 天前 via Android
    hello365
        4
    hello365  
       74 天前
    我前几个月清理重复照片用的 Duplicate Cleaner Pro 5 ,感觉清理规则很丰富,买的授权,网上也有破解版的,别的软件没对比过。
    shunia
        5
    shunia  
       74 天前
    @yfugibr #3 这个 repo 一直在更新,但是完全没发版是为啥,必须自己编译?
    shunia
        6
    shunia  
       74 天前
    楼主的需求很有市场,期待一个靠谱的回复。
    shunia
        7
    shunia  
       74 天前
    @stevenbipt #1 就你说的第一句话要做成一个实际可用的版本就需要操心很多事情啊。性能,可靠性,备份等等。
    总不会说干着干着程序挂了图片被整没了吧?
    windirt
        8
    windirt  
       74 天前   ❤️ 2
    群晖 NAS ,自带的存储空间分析器
    创建一个报告,潜在的重复文件打勾,指定检索的文件夹,忽略文件名,修改时间,会按照 md5 对比,然后执行报告,就在后台慢慢整理了,整理完就会有一个表格,自己按表格处理吧
    santom
        9
    santom  
       74 天前
    我威联通用的 Fdupes
    https://www.qnapclub.eu/en/qpkg/418
    aircargo
        10
    aircargo  
       74 天前
    前几年还有自动分析对比的功能,现在新版本貌似都没了。
    FightPig
        11
    FightPig  
       74 天前
    我用的绿联的,好像自带了
    terrytw
        12
    terrytw  
       74 天前   ❤️ 1
    推荐 dupeguru
    LeeReamond
        13
    LeeReamond  
       74 天前
    自己写一个去重感觉比较靠谱,之前测试过开源的照片方案感觉都不太行,遑论去重组件了
    yfugibr
        14
    yfugibr  
       74 天前 via Android
    @shunia #5 不太清楚,我用的还是 2020 年的那个版本,也没遇到啥问题
    bao3
        15
    bao3  
       74 天前
    群晖的话有自动去重。楼上有人写了
    virlaser
        16
    virlaser  
       74 天前
    把目录挂到电脑上用 duplicate cleaner 扫
    可以根据相似度对比照片
    可以根据一定时间窗口内的视频关键帧对比视频
    GeekSuPro
        17
    GeekSuPro  
       74 天前
    极空间自带重复文件照片去重
    gumuxi
        18
    gumuxi  
       74 天前
    我也有这个需求,NAS 是 OMV 系统的,插个眼,没有合适的我得空自己开发一个。
    dolorain
        19
    dolorain  
       74 天前   ❤️ 1
    自己写个脚本跑 hash 一撞就行了呀,以下是代码:

    #!/bin/bash

    # 指定需要检查的目录路径
    dir_path="/path/to/directory"

    # 切换到目录
    cd $dir_path

    # 循环遍历目录下的所有文件
    for file1 in *; do

    # 如果当前文件不是图片文件,则跳过检查
    if ! [[ $(file "$file1") =~ "image" ]]; then
    continue
    fi

    # 计算当前文件的哈希值
    hash1=$(md5sum "$file1" | awk '{ print $1 }')

    # 遍历当前文件之后的所有文件,寻找是否存在哈希值相同的图片
    for file2 in $(ls $file1 ../*); do

    # 如果当前文件不是图片文件或与自身重复,则跳过检查
    if [ "$file1" = "$file2" ] || ! [[ $(file "$file2") =~ "image" ]]; then
    continue
    fi

    # 计算当前文件的哈希值
    hash2=$(md5sum "$file2" | awk '{ print $1 }')

    # 如果哈希值相同,则判定为重复图片,删除其中一张图片
    if [ "$hash1" = "$hash2" ]; then
    echo "Duplicate image found: $file1 and $file2. Deleting $file2"
    rm -f "$file2"
    fi

    done

    done

    echo "老子处理完了."
    anubu
        20
    anubu  
       74 天前
    md5 太粗暴了,好久之前用 python 写过一段算海明距离的图片去重脚本,网上搜搜应该有很多,简单的去重也够用了。
    Al0rid4l
        21
    Al0rid4l  
       74 天前
    czkawka+脚本?
    ALLROBOT
        22
    ALLROBOT  
       73 天前 via Android
    4 楼说过了,Duplicate Cleaner 软件自带的模糊识别,对于大小名字不一致,相似的图片能成功识别
    对于整理归档帮助较大,就是识别大量文件比较慢
    yfugibr
        23
    yfugibr  
       73 天前 via Android   ❤️ 1
    @shunia #5 刚说到这个就更新了😂,凌晨发新版了
    xuanzc880
        24
    xuanzc880  
       73 天前
    你说的重复指的是哪种程度的重复?照片文件一模一样连 hash 都一样,还是说 hash 不一样,但是拍得内容大致相同?
    第一种的话如果你用的是群晖,而且还是 BTRFS 的文件系统,可以用 duperemove 这个软件来利用 BTRFS 自身的去重功能.
    关于   ·   帮助文档   ·   博客   ·   nftychat   ·   API   ·   FAQ   ·   我们的愿景   ·   实用小工具   ·   4505 人在线   最高记录 5634   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 1848ms · UTC 01:16 · PVG 09:16 · LAX 18:16 · JFK 21:16
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.