zoukankan      html  css  js  c++  java
  • 使用python删除本地夹里重复的文件

    上次的博文主要说了从网上下载图片,于是我把整个笑话网站的图片都拔下来了,但是在拔取的图片中有很多重复的,比如说页面的其他图片、重复发布的图片等等。所以我又找了python的一些方法,写了一个脚本可以删除指定文件夹里重复的图片

    一:方法和思路

    1.比对文件是否相同的方法:hashlib库里提供了获取文件md5值的方法,所以我们可以通过md5值来判定是否图片相同

    2.对文件的操作:os库里有对文件的操作方法,比如:os.remove()可以删除指定的文件, os.listdir()可以通过指定文件夹路径获取文件夹里所有文件的文件名

    思路:通过获取指定文件夹的所有文件名,然后匹配为一个绝对路径的列表,循环的比对每个文件的md5值,如果md5值重复,则删除这个文件

    二:代码实现

    import os
    import hashlib
    import logging
    import sys
    
    def logger():
        """ 获取logger"""
        logger = logging.getLogger()
        if not logger.handlers:
            # 指定logger输出格式
            formatter = logging.Formatter('%(asctime)s %(levelname)-8s: %(message)s')
            # 文件日志
            file_handler = logging.FileHandler("test.log")
            file_handler.setFormatter(formatter)  # 可以通过setFormatter指定输出格式
            # 控制台日志
            console_handler = logging.StreamHandler(sys.stdout)
            console_handler.formatter = formatter  # 也可以直接给formatter赋值
            # 为logger添加的日志处理器
            logger.addHandler(file_handler)
            logger.addHandler(console_handler)
            # 指定日志的最低输出级别,默认为WARN级别
            logger.setLevel(logging.INFO)
        return logger
    
    def get_md5(filename):
        m = hashlib.md5()
        mfile = open(filename, "rb")
        m.update(mfile.read())
        mfile.close()
        md5_value = m.hexdigest()
        return md5_value
    
    def get_urllist():
        #替换指定的文件夹路径即可
        base = ("F:\pythonFile\煎蛋网\无聊图\jpg\")
        list = os.listdir(base)
        urlList=[]
        for i in list:
            url = base + i
            urlList.append(url)
        return  urlList
    
    if __name__ == '__main__':
        log = logger()
        md5List =[]
        urlList =get_urllist()
        for a in urlList:
            md5 =get_md5(a)
            if (md5 in md5List):
                os.remove(a)
                print("重复:%s"%a)
                log.info("重复:%s"%a)
            else:
                md5List.append(md5)
                # print(md5List)
                print("一共%s张照片"%len(md5List))

    然后我们可以通过日志来查看到底哪些文件是重复的,不过对于一些超大文件的话,md5值的获取会有一些变化,不过处理一般的小文件都可以的,只需要替换我的路径,就可以在你电脑上运行啦

  • 相关阅读:
    成功实施的APS项目故事分享---我们数据治理的心路历程
    成功实施的APS项目故事分享---如何管理与激励APS项目团队
    东莞裕同&易普优APS项目启动啦!
    包装印刷行业裕同集团&易普优APS项目顺利验收!
    易普优APS混流排序算法助力汽车整车厂的均衡生产
    动态调用WebService接口
    C#推送RocketMQ信息
    DEV带筛选行CheckBox选中问题
    验证上传文件真实格式
    PLSQL导出触发器代码
  • 原文地址:https://www.cnblogs.com/CCGGAAG/p/7800337.html
Copyright © 2011-2022 走看看