zoukankan      html  css  js  c++  java
  • 爬虫---爬取豆瓣网评论内容

      这段时间肯定经常听到一句话“我命由我不由天”,没错,就是我们国产动漫---哪咤,今天我们通过python还有上次写的pyquery库来爬取豆瓣网评论内容

    爬取豆瓣网评论

    1、找到我们想要爬取的电影---小哪咤

    2、查看影片评论

    点击查看我们的影评,发现只能查看前200个影评,这里就需要登录了

    分析出来全部影评的接口地址

    好巧用到了上次写的通过requests登录豆瓣网,然后通过session会话访问评论内容-----post请求登录豆瓣网

    # coding:utf-8
    import requests
    # 登录请求地址
    s = requests.session()
    url = 'https://accounts.douban.com/j/mobile/login/basic'
    # 请求头
    headers = {
            "User-Agent":"Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.142 Safari/537.36"
    }
    # body数据
    data = {
            'name':"xxxxx",   # 账号
            "password":"xxxx",  # 密码
            "remember":"false"
    }
    # 发送请求
    r = s.post(url,headers=headers,data=data)
    # 全部评论内容
    url2 = 'https://movie.douban.com/subject/26794435/comments?start=20&limit=20&sort=new_score&status=P'
    r2 = s.get(url2,headers=headers).content

    3、通过pyquery解析html

    导入pyquery解析html内容,分析html数据

    评论人的在 class =‘comment-info’下的a标签中;

    影评内容在class=‘short’中

     4、提取html上我们想要的内容

    已经分析出来我们想要的数据在哪里,那么接下来就是提取数据了

    # 解析html
    doc = pq(r2)
    items = doc('.comment-item').items()
    # 循环读取信息
    for i in items:
        # 评论昵称
        name = i('.comment-info a').text()
        print(name)
        # 评论内容
        content = i('.short').text()
        print(content)

     5、循环读取全部评论并且写入txt文件中

    这个地方用到的知识点写入应该不用在具体说了;

    循环读取全部评论就要查看分页情况了。找到2个url进行对比就可以看出来了

    url1:https://movie.douban.com/subject/26794435/comments?status=P

    url2:https://movie.douban.com/subject/26794435/comments?start=20&limit=20&sort=new_score&status=P

    通过对比我们发现分页通过start这个参数进行控制,这次我们通过while进行控制分页内容

    import requests
    from pyquery import PyQuery as pq
    import time
    import random
    s = requests.session()
    def data_html():
        url = 'https://accounts.douban.com/j/mobile/login/basic'
        headers = {
            "User-Agent":"Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.142 Safari/537.36"
        }
        data = {
            'name':"1",
            "password":"xxxxx",
            "remember":"false"
        }
        r = s.post(url,headers=headers,data=data,verify = False)
        if '安静' in r.text:
            print('登录成功')
        else:
            print('登录失败')
    
    def data_shuju(count=0):
        print('开始爬取第%d页' % int(count))
        start = int(count * 20)
        headers = {
            "User-Agent":"Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.142 Safari/537.36"
        }
        url2 = 'https://movie.douban.com/subject/26794435/comments?start=%d&limit=20&sort=new_score&status=P' %(start)
        r2 = s.get(url2,headers=headers).content
        doc = pq(r2)
        items = doc('.comment-item').items()
        for i in items:
            name = i('.comment-info a').text()
            if not name:
                return 0
            content= i('.short').text()
            with open('12.txt','a+',encoding='utf-8')as f:
                f.write('{name}:
    {pinglun}
    
    '.format(name=name,content=content)) return 1 

    def data_data():
      data_html()
      count = 0
      while data_shuju(count):
        count += 1
        time.sleep(random.random() * 3)

      print('爬取完毕')
    data_data()
  • 相关阅读:
    《冒号课堂》目录 书名:冒号课堂——编程范式与OOP思想
    很好的WEB打印网页打印功能
    桌面搜索程序 Python
    面向对象保存爬虫数据 Python
    爬取微博热搜榜 李白之死 Python
    雪中悍刀行热播,来做一篇关于python的作业 爬虫与数据分析
    几个简单的例子 巩固Xpath语法 Python
    替换特殊字符 Python
    爬取酷狗榜单并可视化词云 Python
    Selenium尝试更改useragent 基于Python
  • 原文地址:https://www.cnblogs.com/qican/p/11290465.html
Copyright © 2011-2022 走看看