zoukankan      html  css  js  c++  java
  • xpath+selenium工具爬取腾讯招聘全球岗位需求

    from selenium import webdriver
    import time
    from lxml import etree  # 格式化html页面
    import json
    from pprint import pprint
    import re
    
    
    class Tencent(object):
        def __init__(self):
            self.start_url = "https://careers.tencent.com/search.html"
            # 在内存中运行
            self.options = webdriver.ChromeOptions()
            self.options.add_argument("--headless")
            self.driver = webdriver.Chrome(options=self.options)
    
            # 有可视化界面的工具
            # self.driver = webdriver.Chrome()  # 实例一个自动化工具
            # self.driver.set_window_size(1280, 960)  # 设置工具窗口
    
        def get_content_list(self, html_str):
            html = etree.HTML(html_str)
            content_list = []
            # div_list = html.xpath("//div[@class='correlation-degree']/div/div[position()>1]")  特殊页面有11个元素的
            div_list = html.xpath("//div[@class='correlation-degree']/div/div")
    
            for div in div_list:
                item = {}
                item["腾讯岗位标题"] = div.xpath(".//h4[@class='recruit-title']/text()")[0]
                item["岗位地点"] = div.xpath(".//p[@class='recruit-tips']/span[2]/text()")[0]
                item["招聘信息发布时间"] = div.xpath(".//p[@class='recruit-tips']/span[4]/text()")[0]
                item["岗位类型"] = div.xpath(".//p[@class='recruit-tips']/span[3]/text()")[0] if len(
                    div.xpath(".//p[@class='recruit-tips']/span[3]/text()")) > 0 else None
                item["岗位要求"] = div.xpath(".//a[@class='recruit-list-link']/p[2]/text()")[0] if len(
                    div.xpath(".//a[@class='recruit-list-link']/p[2]/text()")) > 0 else None
                item["岗位要求"] = re.sub("s", "", item["岗位要求"])
                content_list.append(item)
    
            return content_list
    
        def save_content(self, content_list):
            """保存数据至本地"""
            with open("腾讯招聘信息.txt", "a") as f:
                for i in content_list:
                    f.write(json.dumps(i, ensure_ascii=False, indent=2) + "
    ")
            pprint("保存成功")
    
        def run(self):
            """控制爬虫逻辑"""
            self.driver.get(self.start_url)  # 进入开始页
            html_str = self.driver.page_source  # 获得经过js、css、ajax完全加载后渲染的页面element字符串
            content_lsit = self.get_content_list(html_str)  # 使用etree格式化html页面后提取数据
            self.save_content(content_lsit)  # 保存数据
            # 进入下一页
            while True:  # 进入循环
    
                # 重点
                next_page = self.driver.find_element_by_xpath("//li[@class='next']")  # 在当前页获得下一页按钮
                self.driver.execute_script("arguments[0].click();", next_page)  # 执行下一页js代码,固定写法,
                time.sleep(5)
               
    
                print(self.driver.current_url)  # 输出当前页url地址
                html_str = self.driver.page_source
                content_lsit = self.get_content_list(html_str)
                self.save_content(content_lsit)
                if len(content_lsit) < 10:
                    self.driver.save_screenshot("最后一页.png")
                    break
    
        def __del__(self):
            self.driver.quit()
    
    
    if __name__ == '__main__':
        tencent = Tencent()
        tencent.run()
    本文版权归作者和博客园共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接,否则保留追究法律责任的权利
  • 相关阅读:
    paip.字符串操作uapi java php python总结..
    paip. java resin 远程 调试 java resin remote debug
    paip. http 405 的解决..
    paip.uapi 获取网络url内容html 的方法java php ahk c++ python总结.
    paip. 调试技术打印堆栈 uapi print stack java php python 总结.
    paip.数组以及集合的操作uapi java php python总结..
    paip.java 以及JavaScript (js) 的关系以及区别
    paip.提升用户体验提升java的热部署热更新能力
    paip.获取proxool的配置 xml读取通过jdk xml 初始化c3c0在代码中总结
    paip.调试js 查看元素事件以及事件断点
  • 原文地址:https://www.cnblogs.com/hhddd-1024/p/13798832.html
Copyright © 2011-2022 走看看