zoukankan      html  css  js  c++  java
  • 手把手教你使用Python网络爬虫获取B站视频选集内容(附源码)

    大家好,我是Python进阶者。

    前言

    前几天雪球兄在Python交流群里分享了一个获取B站视频选集的Python代码,小编觉得非常奈斯,这里整理成一篇小文章,分享给大家学习。

    关于雪球兄,大家应该都熟悉了,之前他写过Python实战文章,好评如潮,没来得及看的小伙伴,可以戳这里了:

    盘点常用验证码标注和识别项目线上部署三种方式——VUE前端、Java后端和Python后端部署

    Python项目实战篇——常用验证码标注&识别(CNN神经网络模型训练/测试/部署)

    Python项目实战篇——常用验证码标注&识别(前端+后端实现高效率数据标注)

    Python项目实战篇——常用验证码标注&识别(数据采集/预处理/字符图切割)

    Python项目实战篇——常用验证码标注和识别(需求分析和实现思路)

    之前也有给大家分享B站的一些文章,感兴趣的话可以看看这个文章,Python网络爬虫+数据分析:手把手教你用Python网络爬虫获取B站UP主10万条数据并用Pandas库进行趣味数据分析

    一、背景引入

    一提到B站,第一印象就是视频,相信很多小伙伴和我一样,都想着去利用网络爬虫技术获取B站的视频吧,但是B站视频其实没有那么好拿到的,关于B站的视频获取,之前有介绍通过you-get库进行实现,感兴趣的小伙伴可以看这篇文章:You-Get 就是这么强势!

    言归正传,经常在B站上学习的小伙伴们可能经常会遇到有的博主连载几十个,甚至几百个视频,尤其像这种编程语言、课程、工具使用等连续的教程,就会出现选集系列,如下图所示。

    当然这些选集的字段我们肉眼也是可以看得到的。只是通过程序来实现的话,可能真没有想象的那么简单。那么这篇文章的目标呢,就是通过Python网络爬虫技术,基于selenium库,实现视频选集的获取。

    二、具体实现

    这篇文章我们用的库是selenium,这个是一个用于模拟用户登录的库,虽然给人的感觉是慢,但是在网络爬虫领域,这个库还是用的蛮多的,用它来模拟登录、获取数据屡试不爽。下面是实现视频选集采集的所有代码,欢迎大家亲自动手实践。

    
    # coding: utf-8
    from selenium import webdriver
    from selenium.webdriver.common.by import By
    from selenium.webdriver.support import expected_conditions as EC
    from selenium.webdriver.support.wait import WebDriverWait
    
    class Item:
        page_num = ""
        part = ""
        duration = ""
    
        def __init__(self, page_num, part, duration):
            self.page_num = page_num
            self.part = part
            self.duration = duration
    
        def get_second(self):
            str_list = self.duration.split(":")
            sum = 0
            for i, item in enumerate(str_list):
                sum += pow(60, len(str_list) - i - 1) * int(item)
    
            return sum
    
    def get_bilili_page_items(url):
        options = webdriver.ChromeOptions()
        options.add_argument('--headless')  # 设置无界面
        options.add_experimental_option('excludeSwitches', ['enable-automation'])
        # options.add_experimental_option("prefs", {"profile.managed_default_content_settings.images": 2,
        #                                           "profile.managed_default_content_settings.flash": 0})
    
        browser = webdriver.Chrome(options=options)
        # browser = webdriver.PhantomJS()
        print("正在打开网页...")
        browser.get(url)
    
        print("等待网页响应...")
        # 需要等一下,直到页面加载完成
        wait = WebDriverWait(browser, 10)
        wait.until(EC.visibility_of_element_located((By.XPATH, '//*[@class="list-box"]/li/a')))
    
        print("正在获取网页数据...")
        list = browser.find_elements_by_xpath('//*[@class="list-box"]/li')
        # print(list)
        itemList = []
    
        second_sum = 0
    
        # 2.循环遍历出每一条搜索结果的标题
        for t in list:
            # print("t text:",t.text)
            element = t.find_element_by_tag_name('a')
            # print("a text:",element.text)
            arr = element.text.split('
    ')
            print(" ".join(arr))
            item = Item(arr[0], arr[1], arr[2])
            second_sum += item.get_second()
            itemList.append(item)
    
        print("总数量:", len(itemList))
        # browser.page_source
    
        print("总时长/分钟:", round(second_sum / 60, 2))
        print("总时长/小时:", round(second_sum / 3600.0, 2))
    
        browser.close()
    
        return itemList
    
    
    get_bilili_page_items("https://www.bilibili.com/video/BV1Eb411u7Fw")
    

    这里用到的选择器是xpath,利用视频示例是B站的《高等数学》同济版 全程教学视频(宋浩老师)视频选集,大家如果想抓取其他视频选集的话,只需要更改上述代码的最后一行的URL链接即可。

    三、常见问题

    在运行过程中小伙伴们应该会经常遇到这个问题,如下图所示。

    这个是因为谷歌驱动版本问题导致的,只需要根据提示,去下载对应的驱动版本即可,驱动下载链接:

    https://chromedriver.storage.googleapis.com/index.html
    

    四、总结

    我是Python进阶者。这篇文章主要给大家介绍了B站视频选集内容的获取方法,基于网络爬虫,通过selenium库和xpath选择器进行实现,并且给大家例举了常见问题的处理方法。小伙伴们,快快用实践一下吧!如果在学习过程中,有遇到任何问题,欢迎加我好友,我拉你进Python学习交流群共同探讨学习。

  • 相关阅读:
    2019 SDN上机第3次作业
    SDN第二次作业
    软件定义网络第一次作业
    软件工程实践第五次作业
    软件工程实践2019第四次作业------原型设计
    2019 SDN上机第7次作业
    2019 SDN上机第6次作业
    SDN课程阅读作业(2)
    软件工程实践个人作业——软件评测
    2019 SDN上机第5次作业
  • 原文地址:https://www.cnblogs.com/dcpeng/p/15335946.html
Copyright © 2011-2022 走看看