zoukankan      html  css  js  c++  java
  • 爬了世纪佳缘后发现了一个秘密,世纪佳缘找对象靠谱吗?


    今天在知乎上看到一个关于【世纪佳缘找对象靠谱吗?】的讨论,其中关注的人有 1903,被浏览了 1940753 次,355 个回答中大多数都是不靠谱。用 Python 爬取世纪佳缘的数据是否能证明它的不靠谱?

    数据抓取

    在 PC 端打开世纪佳缘网站,搜索 20 到 30 岁、不限地区的女朋友

    翻了几页找到一个 search_v2.php 的链接,它的返回值是一个不规则的 json 串,其中包含了昵称、性别、是否婚配、匹配条件等等

    点开 Hearders 拉到最下面,在它的参数中 sex 是性别、stc 是年龄、p 是分页、listStyle 是有照片

    通过 url + 参数的 get 方式,抓取了 10000 页的数据总共 240116

    需要安装的模块有 openpyxl,用于过滤特殊的字符

    # coding:utf-8
    import csv
    import json
    
    import requests
    from openpyxl.cell.cell import ILLEGAL_CHARACTERS_RE
    import re
    
    line_index = 0
    
    def fetchURL(url):
       
        headers = {
            'accept': '*/*',
            'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.75 Safari/537.36',
            'Cookie': 'guider_quick_search=on; accessID=20201021004216238222; PHPSESSID=11117cc60f4dcafd131b69d542987a46; is_searchv2=1; SESSION_HASH=8f93eeb87a87af01198f418aa59bccad9dbe5c13; user_access=1; Qs_lvt_336351=1603457224; Qs_pv_336351=4391272815204901400%2C3043552944961503700'
        }
    
        r = requests.get(url, headers=headers)
        r.raise_for_status()
        return r.text.encode("gbk", 'ignore').decode("gbk", "ignore")
    
    
    def parseHtml(html):
    
        html = html.replace('\', '')
        html = ILLEGAL_CHARACTERS_RE.sub(r'', html)
        s = json.loads(html,strict=False)
        global line_index
    
        userInfo = []
        for key in s['userInfo']:
            line_index = line_index + 1
            a = (key['uid'],key['nickname'],key['age'],key['work_location'],key['height'],key['education'],key['matchCondition'],key['marriage'],key['shortnote'].replace('
    ',' '))
            userInfo.append(a)
    
        with open('sjjy.csv', 'a', newline='') as f:
            writer = csv.writer(f)
            writer.writerows(userInfo)
    
    
    if __name__ == '__main__':
        
        for i in range(1, 10000):
            url = 'http://search.jiayuan.com/v2/search_v2.php?key=&sex=f&stc=23:1,2:20.30&sn=default&sv=1&p=' + str(i) + '&f=select&listStyle=bigPhoto'
            html = fetchURL(url)
            print(str(i) + '页' + str(len(html)) + '*********' * 20)
            parseHtml(html)
    
    

    发现秘密

    在处理数据去掉重复的时候发现有好多重复的,还以为是代码写的有问题呢,查了好久的 bug 最后才发现网站在 100 页只有的数据有好多重复的,下面两个图分别是 110 页数据和 111 页数据,是不是有很多熟面孔。

    110 页数据

    111 页数据

    过滤重复后的数据只剩下 1872 了,这个水分还真大

    def filterData():
        filter = []
        csv_reader = csv.reader(open("sjjy.csv", encoding='gbk'))
        i = 0
        for row in csv_reader:
            i = i + 1
            print('正在处理:' + str(i) + '行')
            if row[0] not in filter:
                filter.append(row[0])
        print(len(filter))
    

    总结

    世纪佳缘的数据告诉我们网上交友需谨慎。用好 Python 走遍网络都不怕。

    
    
    
    点个“在看”支持一下????
  • 相关阅读:
    tftp服务器
    iw工具的使用
    六、【ioctl】应用程序和驱动程序中的ioctl
    位反转现象(Bit Flip)
    openwrt有线网卡的停用与开启
    寒假小记
    ARMLinux汇编到ADS汇编转换需要注意的问题
    c function pointer example
    (转)解决mysql“Access denied for user 'root'@'localhost'”
    c语言 面向对象的栈
  • 原文地址:https://www.cnblogs.com/finer/p/14127612.html
Copyright © 2011-2022 走看看