zoukankan      html  css  js  c++  java
  • urllib.parse.parse_qsl 的一个小问题

    最近在使用urllib时发现的一个问题,记录一下。

    首先请分别执行下面这两句代码:
      1、"你好".encode("utf8").decode("gbk")
      2、"你".encode("utf8").decode("gbk")

    结果:
      1、正常运行 只是输出是乱码

      2 报错 编码解析错误

    具体原因就不分析了,下面说一下造成的问题


    在urllib.parse.parse_qsl函数中
    def parse_qsl(qs, keep_blank_values=False, strict_parsing=False,
                  encoding='utf-8', errors='replace'):
        """Parse a query given as a string argument.
    
            Arguments:
    
            qs: percent-encoded query string to be parsed
    
            keep_blank_values: flag indicating whether blank values in
                percent-encoded queries should be treated as blank strings.
                A true value indicates that blanks should be retained as blank
                strings.  The default false value indicates that blank values
                are to be ignored and treated as if they were  not included.
    
            strict_parsing: flag indicating what to do with parsing errors. If
                false (the default), errors are silently ignored. If true,
                errors raise a ValueError exception.
    
            encoding and errors: specify how to decode percent-encoded sequences
                into Unicode characters, as accepted by the bytes.decode() method.
    
            Returns a list, as G-d intended.
        """
        qs, _coerce_result = _coerce_args(qs)
        pairs = [s2 for s1 in qs.split('&') for s2 in s1.split(';')]
        r = []
        for name_value in pairs:
            if not name_value and not strict_parsing:
                continue
            nv = name_value.split('=', 1)
            if len(nv) != 2:
                if strict_parsing:
                    raise ValueError("bad query field: %r" % (name_value,))
                # Handle case of a control-name with no equal sign
                if keep_blank_values:
                    nv.append('')
                else:
                    continue
            if len(nv[1]) or keep_blank_values:
                name = nv[0].replace('+', ' ')
                name = unquote(name, encoding=encoding, errors=errors)
                name = _coerce_result(name)
                value = nv[1].replace('+', ' ')
                value = unquote(value, encoding=encoding, errors=errors)
                value = _coerce_result(value)
                r.append((name, value))
        return r
    View Code
    当解析出url中的参数后,会使用urllib.parse.unquote对参数名称和值分别做一下URL编码转换,于是问题就出现了
    根据上面的示例代码,偶数个中文编解码是不会报错的(在编码错误的情况下),下面分情况讨论:
    1、如果你很明确知道url参数中的编码方式是utf8或者gbk时,获取到的query中的value没有问题,你可以执行一个固定的编码。
    2、如果你的输入是不固定的,混杂着各种编码的时候,就蛋疼了,因为不会抛出异常,所以你只能发现结果中出现了各种乱码,却不知道问题出在那里

    貌似这并不是一个问题。。。

    只是在某些情况下用起来不太方便,例如:
      当你想把url中某些参数去掉,然后把剩下的拼接起来的时候还要重新quote一下


  • 相关阅读:
    这种人就是傻逼
    WinDBG + VMWare 双机调试
    最近我遇到了一个代码上的问题
    GITHUB,Fork别人的代码,然后更新的问题
    又半个月没写了,最近忙,真的忙,在考虑换工作的问题
    最近在弄clamav,这里把clamav的编译方法弄一下吧
    基于seay代码,加了个小功能
    CTF:第七题
    CTF:第六题
    Python str拼接bytes
  • 原文地址:https://www.cnblogs.com/dyfblog/p/9089542.html
Copyright © 2011-2022 走看看