zoukankan      html  css  js  c++  java
  • JSON字符串化

    1、JSON字符串化

    JSON字符串化有2个可选参数,分别是replacerspace

    第一个可选参数replacer,它可以是数组或者函数。用来指定哪些属性被处理,哪些属性被排除

    第二个可选参数space,用来指定缩进格式,space为正整数时指定每一级缩进的字符数。它还可以是字符串。

    2、示例代码

    <!DOCTYPE html>
    <html lang="zh">
    
        <head>
            <meta charset="UTF-8" />
            <title>JSON字符串化</title>
        </head>
    
        <body>
    
            <script type="text/javascript">
                //第一个可选参数replacer
                var a = {
                    b: 42,
                    c: '42',
                    d: [1, 2, 3]
                };
                //若replacer是数组,则replacer必须是字符串数组,其中包含序列化要处理的对象属性名称,除此之外的其他属性被忽略。
                var aStr = JSON.stringify(a, ['b', 'c']);
                console.log(aStr);
    
                var b = {
                    b: 42,
                    c: '42',
                    d: [1, 2, 3]
                };
                //repalcer还可以是函数,函数的参数是key和value(键值)
                var bStr = JSON.stringify(b, function(key, value) {
                    if(key != 'c') {
                        return value;
                    }
                })
                console.log(bStr);
    
                var c = {
                    b: 42,
                    c: '42',
                    d: [1, 2, 3]
                };
                //第二个可选参数space,用来指定缩进格式,space为正整数时指定每一级缩进的字符数。它还可以是字符串。
                var cStr = JSON.stringify(c, null, 3);
                console.log(cStr);
            </script>
        </body>
    
    </html>

    控制台输出为:

  • 相关阅读:
    Oracle行转列,pivot函数和unpivot函数
    hive中使用spark执行引擎的常用参数
    Spark消费Kafka如何实现精准一次性消费?
    Flink 保证ExactlyOnce
    Flink的容错
    scala实现kafkaProduce1.0读取文件发送到kafka
    flume1.5的几种conf配置
    shell:ps awk杀死进程
    scala的maven项目中的pom文件
    hive开窗函数进阶
  • 原文地址:https://www.cnblogs.com/mengfangui/p/8301440.html
Copyright © 2011-2022 走看看