zoukankan      html  css  js  c++  java
  • spider java 如何判断网页编码

    前言

      最近做一个搜索项目,需要爬取很多网站获取需要的信息。在爬取网页的时候,需要获得该网页的编码,不然的话会发现爬取下来的网页有很多都是乱码。

    分析

      一般情况下,网页头信息会指定编码,可以解析header或者meta获得charset。但有时网页并没没有指定编码,这时就需要通过网页内容检测编码格式,通过调研,最好用的还是cpdetector。 

      cpdetector自动检测文本编码格式,谁先返回非空,就以该结果为字符编码。内置了一些常用的探测实现类,这些探测实现类的实例可以通过add方法加进来,如等,detector按照“谁先返回非空的探测结果,就以谁的结果为准”的原则返回探测到的字符集编码。

    1、首先,可从header中解析charset

      网页头信息中的Content-Type会指定编码,如图:

      

      可以通过分析header,查找字符编码。

    复制代码
    Map<String, List<String>> map = urlConnection.getHeaderFields();
    Set<String> keys = map.keySet();
    Iterator<String> iterator = keys.iterator();
    
    // 遍历,查找字符编码
    String key = null;
    String tmp = null;
    while (iterator.hasNext()) {
        key = iterator.next();
        tmp = map.get(key).toString().toLowerCase();
        // 获取content-type charset
        if (key != null && key.equals("Content-Type")) {
            int m = tmp.indexOf("charset=");
            if (m != -1) {
                strencoding = tmp.substring(m + 8).replace("]", "");
                return strencoding;
            }
        }
    }
    复制代码

    2、其次,可从网页meta中解析出charset

      正常情况下,在写网页时,会指定网页编码,可在meta中读出来。如图:

      

      首先获取网页流,因为英文和数字不会乱码,可以解析meta,获得charset。

    复制代码
    StringBuffer sb = new StringBuffer();
    String line;
    try {
        BufferedReader in = new BufferedReader(new InputStreamReader(url
                .openStream()));
        while ((line = in.readLine()) != null) {
            sb.append(line);
        }
        in.close();
    } catch (Exception e) { // Report any errors that arise
        System.err.println(e);
        System.err
                .println("Usage:   java   HttpClient   <URL>   [<filename>]");
    }
    String htmlcode = sb.toString();
    // 解析html源码,取出<meta />区域,并取出charset
    String strbegin = "<meta";
    String strend = ">";
    String strtmp;
    int begin = htmlcode.indexOf(strbegin);
    int end = -1;
    int inttmp;
    while (begin > -1) {
        end = htmlcode.substring(begin).indexOf(strend);
        if (begin > -1 && end > -1) {
            strtmp = htmlcode.substring(begin, begin + end).toLowerCase();
            inttmp = strtmp.indexOf("charset");
            if (inttmp > -1) {
                strencoding = strtmp.substring(inttmp + 7, end).replace(
                        "=", "").replace("/", "").replace("\"", "")
                        .replace("\'", "").replace(" ", "");
                return strencoding;
            }
        }
        htmlcode = htmlcode.substring(begin);
        begin = htmlcode.indexOf(strbegin);
    }
    复制代码

    3、当使用1、2解析不出编码时,使用cpdetector根据网页内容探测出编码格式

      可以添加多个编码探测实例:

    复制代码
    public static void getFileEncoding(URL url) throws MalformedURLException, IOException {
        CodepageDetectorProxy codepageDetectorProxy = CodepageDetectorProxy.getInstance();
        
        codepageDetectorProxy.add(JChardetFacade.getInstance());
        codepageDetectorProxy.add(ASCIIDetector.getInstance());
        codepageDetectorProxy.add(UnicodeDetector.getInstance());
        codepageDetectorProxy.add(new ParsingDetector(false));
        codepageDetectorProxy.add(new ByteOrderMarkDetector());
    
        Charset charset = codepageDetectorProxy.detectCodepage(url);
        System.out.println(charset.name());
        }
    }
  • 相关阅读:
    siamese跟踪论文思考
    卷积与相关
    pytorch保存模型等相关参数,利用torch.save(),以及读取保存之后的文件
    发表在 Science 上的一种新聚类算法
    word2vec 中的数学原理详解
    一种并行随机梯度下降法
    一种利用 Cumulative Penalty 训练 L1 正则 Log-linear 模型的随机梯度下降法
    最大熵学习笔记(六)优缺点分析
    最大熵学习笔记(四)模型求解
    最大熵学习笔记(三)最大熵模型
  • 原文地址:https://www.cnblogs.com/songyanlei/p/2984521.html
Copyright © 2011-2022 走看看