zoukankan      html  css  js  c++  java
  • 爬虫——cookie模拟登陆

    cookie适用于抓取需要登录才能访问的页面网站

    cookie和session机制

    http协议为无连接协议,cookie: 存放在客户端浏览器,session: 存放在Web服务器

    人人网登录案例

    方法一:登录网站手动抓取Cookie

    1、先登录成功1次,获取到携带登陆信息的Cookie

      登录成功 - 个人主页(http://www.renren.com/971989504/profile) - F12抓包 - 刷新个人主页 - 找到主页的包(home)

      一般cookie都在all--> home 数据包中,

    2携带着cookie发请求

    import requests
    ​
    class RenRenLogin(object):
       def __init__(self):
           # url为需要登录才能正常访问的地址
           self.url = 'http://www.renren.com/967469305/profile'
           # headers中的cookie为登录成功后抓取到的cookie
           self.headers = {
               # 此处注意cookie,要自己抓取
               "Cookie": "xxx",
               "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.169 Safari/537.36",
          }
    ​
       # 获取个人主页响应
       def get_html(self):
           html = requests.get(url=self.url,headers=self.headers,verify=False).text
           print(html)
           self.parse_html(html)
    ​
       # 可获取并解析整个人人网内需要登录才能访问的地址
       def parse_html(self,html):
           passif __name__ == '__main__':
       spider = RenRenLogin()
       spider.get_html()

    方法二:requests模块处理Cookie

    requests模块提供了session类,来实现客户端和服务端的会话保持​

    1、实例化session对象

      session = requests.session()

    2、让session对象发送get或者post请求

      res = session.post(url=url,data=data,headers=headers)

      res = session.get(url=url,headers=headers)​

    3. 思路梳理

    浏览器原理: 访问需要登录的页面会带着之前登录过的cookie

    程序原理: 同样带着之前登录的cookie去访问 - 由session对象完成

    1、实例化session对象

    2、登录网站: session对象发送请求,登录对应网站,把cookie保存在session对象中

    3、访问页面: session对象请求需要登录才能访问的页面,session能够自动携带之前的这个cookie,进行请求

    具体步骤

    1、寻找登录时POST的地址

      在登陆界面查看网页源码,查看form表单,找action对应的地址: http://www.renren.com/PLogin.do

    2、发送用户名和密码信息到POST的地址

      * 用户名和密码信息以字典的方式发送

        键 :<input>标签中name的值(email,password)

        值 :真实的用户名和密码

        post_data = {'email':'','password':''}

    程序实现

    1、先POST: 把用户名和密码信息POST到某个地址中

    2、再GET: 正常请求去获取页面信息

    import requests
    from lxml import etree
    
    
    class RenrenSpider(object):
        def __init__(self):
            self.post_url = 'http://www.renren.com/PLogin.do'
            self.get_url = 'http://www.renren.com/967469305/profile'
            # email和password为<input>节点中name的属性值
            self.form_data = {
                'email': '******',     # 用户名
                'password': '*******'} # 密码
            self.session = requests.session()  # 实例化session会话保持对象
            self.headers = {
                'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.169 Safari/537.36',
                'Referer': 'http://www.renren.com/SysHome.do'}
    
        # 先post 再get
        def get_html(self):
            # 先POST,把用户名和密码信息POST到一个地址
            self.session.post(url=self.post_url, data=self.form_data, headers=self.headers)
            # 再session.get()个人主页
            html = self.session.get(url=self.get_url, headers=self.headers).text
            self.parse_html(html)
    
        def parse_html(self, html):
            parse_html = etree.HTML(html)
            r_list = parse_html.xpath('//li[@class="school"]/span/text()')
            print(r_list)
    
    
    if __name__ == '__main__':
        spider = RenrenSpider()
        spider.get_html()

    方法三

    1、把抓取到的cookie处理为字典
    2、使用requests.get()中的参数:cookies

    import requests
    from lxml import etree
    
    
    class RenrenLogin(object):
        def __init__(self):
            # url为需要登录才能正常访问的地址
            self.url = 'http://www.renren.com/967469305/profile'
            self.headers = {
                'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/76.0.3809.100 Safari/537.36'}
    
        # 将字符串cookie转为字典格式
        def get_cookie_dict(self):
            cookie_dict = {}
            cookies = 'td_cookie=18446744073093166409; anonymid=jzc3yiknvd9kwr; depovince=GW; jebecookies=67976425-f482-44a7-9668-0469a6a14d16|||||; _r01_=1; JSESSIONID=abcp_jUgWA4RdcgwXqtYw; ick_login=f502b729-d6cb-4085-8d74-4308a0a8a17d; _de=4DBCFCC17D9E50C8C92BCDC45CC5C3B7; p=cae86d9f12c5a1ba30901ad3d6ac992f5; first_login_flag=1; ln_uact=13603263409; ln_hurl=http://hdn.xnimg.cn/photos/hdn221/20181101/1550/h_main_qz3H_61ec0009c3901986.jpg; t=6d191b90a0236cea74f99b9d88d3fbd25; societyguester=6d191b90a0236cea74f99b9d88d3fbd25; id=967469305; xnsid=6cbc5509; ver=7.0; loginfrom=null; jebe_key=bd6eb791-92b2-4141-b8ed-53d17551d830%7C2012cb2155debcd0710a4bf5a73220e8%7C1565838783310%7C1%7C1565838784555; jebe_key=bd6eb791-92b2-4141-b8ed-53d17551d830%7C2012cb2155debcd0710a4bf5a73220e8%7C1565838783310%7C1%7C1565838784558; wp_fold=0'
            for kv in cookies.split('; '):
                # kv: 'td_cookie=184xxx'
                key = kv.split('=')[0]
                value = kv.split('=')[1]
                cookie_dict[key] = value
    
            return cookie_dict
    
        # 获取个人主页响应
        def get_html(self):
            # 获取cookies
            cookies = self.get_cookie_dict()
            print(cookies)
            html = requests.get(url=self.url, headers=self.headers, cookies=cookies, ).text
            self.parse_html(html)
    
        # 可获取并解析整个人人网内需要登录才能访问的地址
        def parse_html(self, html):
            parse_html = etree.HTML(html)
            r_list = parse_html.xpath('//*[@id="operate_area"]/div[1]/ul/li[1]/span/text()')
            print(r_list)
    
    
    if __name__ == '__main__':
        spider = RenrenLogin()
        spider.get_html()

     

  • 相关阅读:
    Flask request接口获取参数
    python踩坑系列之导入包时下划红线及报错“No module named”问题
    报表测试方法与注意事项
    如何查看队列被某个应用消费
    Jinkins自动构建
    Python3字典排序
    【Win10】【译】提交 UWP 应用时遇到意料之外的语言?
    【Win10】探索 Windows 10 10586 之 JumpList(跳转列表)
    【Win10】页面导航的实现
    【Win10】使用 ValidationAttribute 实现数据验证
  • 原文地址:https://www.cnblogs.com/LXP-Never/p/11385875.html
Copyright © 2011-2022 走看看