zoukankan      html  css  js  c++  java
  • 人工智能

    一、人工智能

      此篇是人工智能应用的重点,只用现成的技术不做底层算法,也是让初级程序员快速进入人工智能行业的捷径,目前市面上主流的AI技术提供公司有很多,比如百度、阿里、腾讯、主做语音的科大讯飞,做只能问答的图灵机器人等等,这些公司投入了很大一部分财力物力人力将底层封装,提供应用接口给我们,尤其是百度,完全免费的接口,既然百度这么仗义,咱们就不要浪费掉怎么好的资源,从百度AI入手,开启人工智能之旅!

      开启人工智能技术的大门 : http://ai.baidu.com/

      看看我们大百度的AI大法,这些技术全部都是封装好的接口,看着就爽,接下来咱们就一步一步的操作一下,首先进入控制台,注册一个百度的账号(百度账号通用),开通一下我们百度AI开放平台的授权。然后找到已开通服务中的百度语音,如下图:

      走到这里,想必已经知道咱们要从语音入手了,语音识别和语音合成,打开百度语音,进入语音应用管理界面,创建一个新的应用,如下图:

      创建应用时可按照如下填写:

      创建完成后,回到应用列表我们可以看到已创建的应用了,如下图:

      这里面有三个值 AppID , API Key , Secret Key需要记住从这里看,之后的学习中我们会用到。

      到此,百度语音的应用已经创建完成了,接下来,我们Python 代码作为实例进行应用及学习。

      使用pip安装百度人工智能的python SDK:

    pip3 install baidu-aip

      安装后就可以使用如下方式导入:

    from aip import AipSpeech

    一、语音合成

      百度语音合成技术文档: https://ai.baidu.com/docs#/TTS-Online-Python-SDK/top

      代码示例:

    from aip import AipSpeech
    
    """ 你的 APPID AK SK """
    # 这里的三个参数,对应在百度语音创建的应用中的三个参数
    APP_ID = '15421088'
    API_KEY = 'YLhm87fm7q51a3LqBwG7g4xB'
    SECRET_KEY = 'ojzQ40mGhyrzrH9zTkVkEdBbae0F7HyW'
    
    # 这是与百度进行一次加密校验,认证你是合法用户,合法应用
    client = AipSpeech(APP_ID, API_KEY, SECRET_KEY)
    # AipSpeech 是百度语音的客户端,认证成功之后,客户端将被开启,这里的client 就是已经开启的百度语音的客户端了
    
    # 用百度语音客户端的synthesis方法,并提供相关参数,成功得到音频文件流,否则返回错误信息
    result = client.synthesis(
    	'你叫什么名字?',  # text: 合成的文本,utf-8编码,注意长度须小于1024字节
    	'zh',             # lang: 语言,zh代表中文,en代表英文
    	1,             # ctp: 客户端信息,这里就写1,写别的不好使,原因后边解释
    	{
            'vol':5,   # 合成音频我呢见的准音量
            'spd':3,   # 语速,取值0-9,默认为5,中语速
            'pit':7,   # 语调音调,取值0-9,默认为5,中语调
            'per':4    # 发音人选择,0为女声,1为男声,3为情感合成-度逍遥,4为情感合成度丫丫,默认为普通女
    	}
    )
    
    # 若上面三个参数APP_ID,API_KEY,SECRET_KEY填写正确,result就是音频文件的流
    # 如果返回失败的话,result就是一个字典
    print(result)
    
    if not isinstance(result, dict):
        with open('audio.mp3', 'wb') as f:
            f.write(result)

    二、语音识别

      百度语音识别技术文档:http://ai.baidu.com/docs#/ASR-Online-Python-SDK/top

    1、语音识别工具

      我们一般不对mp3格式的音频文件进行识别,文档中明确指出支持的格式有:pcm(不压缩)、wav(不压缩,pcm编码)、amr(压缩格式),因此,要想让百度的SDK识别我们的音频文件,就要想办法转变成百度SDK可以识别的格式(我们一般用PCM格式)。下面为你介绍一个可以实现自动化转换格式并且屡试不爽的工具 : FFmpeg。

      下载地址:https://pan.baidu.com/s/1jonSAa_TG2XuaJEy3iTmHg(提取码:w6hk)。

      1)将FFmpeg工具压缩包下载后,解压缩,找到bin目录(例如我的目录是D:Program Filesffmpegin),将bin目录加入到环境变量,如下图:

      2)测试是否配置成功,下图表示成功:  

        接下来你就可以使用该工具将wav、wma、mp3等音频文件转换为pcm无压缩音频文件了。

      3)演示:现在我电脑D:DragonFireAudio目录下有个音频文件audio.wav,进行pcm格式的转换得到 audio.pcm,操作如下:

        命令:ffmpeg -y  -i audio.wav  -acodec pcm_s16le -f s16le -ac 1 -ar 16000 audio.pcm

        然后打开目录D:DragonFireAudio 就可以看见生成的.pcm文件了。

    2、语音识别示例

    from aip import AipSpeech
    
    """ 你的 APPID AK SK """
    APP_ID = '15421088'
    API_KEY = 'YLhm87fm7q51a3LqBwG7g4xB'
    SECRET_KEY = 'ojzQ40mGhyrzrH9zTkVkEdBbae0F7HyW'
    
    client = AipSpeech(APP_ID, API_KEY, SECRET_KEY)
    
    
    # 读取文件
    def get_file_content(filePath):
        with open(filePath, 'rb') as fp:
            return fp.read()
    
    # 识别本地文件
    res = client.asr(get_file_content('audio.pcm'), 'pcm', 16000, {
        'dev_pid': 1536,
    })
    
    print(res)
    """
    {
        'corpus_no': '6646725491143939609', 
        'err_msg': 'success.', 
        'err_no': 0, 
        'result': ['你叫什么名字'], 
        'sn': '493358299471547561374'
    }
    """
    
    print(res.get("result")[0])
    # 你叫什么名字

    三、图灵机器人

      官网:http://www.tuling123.com

    1、创建机器人

      1)注册登录账号后,点击创建机器人,填写信息;

      2)配置机器人各项参数,按照文档说明使用;

      3)API V2.0接入文档地址:https://www.kancloud.cn/turing/www-tuling123-com/718227

    2、机器人示例代码

    from aip import AipSpeech, AipNlp
    import requests
    import time
    import os
    
    """ 你的 APPID AK SK """
    APP_ID = ''
    API_KEY = ''
    SECRET_KEY = ''
    
    nlp =  AipNlp(APP_ID, API_KEY, SECRET_KEY)
    client = AipSpeech(APP_ID, API_KEY, SECRET_KEY)
    
    # 读取文件
    def get_file_content(filePath):
        os.system(f"ffmpeg -y  -i {filePath} -acodec pcm_s16le -f s16le -ac 1 -ar 16000 {filePath}.pcm")
        with open(f"{filePath}.pcm", 'rb') as fp:
            return fp.read()
    
    
    def audio2text(filepath):
        # 识别本地文件
        res = client.asr(get_file_content(filepath), 'pcm', 16000, {
            'dev_pid': 1536,
        })
        print(res.get("result")[0])
        return res.get("result")[0]
    
    
    def text2audio(text):
        filename = f"{time.time()}.mp3"
        result = client.synthesis(text, 'zh', 1, {
            'vol': 5,
            "spd": 3,
            "pit": 7,
            "per": 4
        })
        # 识别正确返回语音二进制 错误则返回dict 参照下面错误码
        if not isinstance(result, dict):
            with open(filename, 'wb') as f:
                f.write(result)
    
        return filename
    
    
    def to_tuling(text):
        args = {
            "reqType": 0,  # 选填,输入类型:0-文本(默认)、1-图片、2-音频
            "perception": {   # 必填项,输入信息
                # inputText、inputImage、inputMedia三者至少有一个
                "inputText": {
                    "text": text
                }
            },
            "userInfo": {   # 必填项,用户参数
                "apiKey": "17cec68551c847c59ac48a5a9dd00327",  # 必填项
                "userId": "1111"   # 必填项,用于上下文管理
            }
        }
        # 接口地址
        url = "http://openapi.tuling123.com/openapi/api/v2"
    
        res = requests.post(url, json=args)
    
        text = res.json().get("results")[0].get("values").get("text")
        print("图灵答案", text)
    	return text
    # 以上内容为web录音玩具中的baidu_ai.py中代码
    
    text = audio2text("bjtq.wma")
    
    if nlp.simnet("你叫什么名字",text).get("score") >= 0.68 :
        text = "我的名字叫张三"
    else:
        text = to_tuling(text)
    
    filename = text2audio(text)
    
    os.system(filename)

    四、web录音玩具

      注意:以下示例请使用火狐浏览器演示!

      manage.py文件:

    from flask import Flask,render_template,request,jsonify,send_file
    from uuid import uuid4
    import baidu_ai    # 上面机器人代码为baidu_ai.py文件
    
    app = Flask(__name__)
    
    @app.route("/")
    def index():
        return render_template("index.html")
    
    
    @app.route("/ai",methods=["POST"])
    def ai():
        # 1.保存录音文件
        audio = request.files.get("record")
        filename = f"{uuid4()}.wav"
        audio.save(filename)
        # 2.将录音文件转换为PCM发送给百度进行语音识别
        q_text = baidu_ai.audio2text(filename)
    
        # 3.将识别的问题交给图灵或自主处理获取答案
        a_text = baidu_ai.to_tuling(q_text)
    
        # 4.将答案发送给百度语音合成,合成音频文件
        a_file = baidu_ai.text2audio(a_text)
    
        # 5.将音频文件发送给前端播放
        return jsonify({"filename":a_file})
    
    
    @app.route("/get_audio/<filename>")
    def get_audio(filename):
        return send_file(filename)
    
    
    if __name__ == '__main__':
        app.run("0.0.0.0",9527,debug=True)

      index.html文件:

    <!DOCTYPE html>
    <html lang="en">
    <head>
        <meta charset="UTF-8">
        <title>Title</title>
    </head>
    <body>
    <audio controls autoplay id="player"></audio>
    <p>
        <button onclick="start_reco()" style="background-color: yellow">录制语音指令</button>
    </p>
    <p>
        <button onclick="stop_reco_audio()" style="background-color: blue">发送语音指令</button>
    </p>
    </body>
    <script type="text/javascript" src="/static/Recorder.js"></script>
    <!--<script type="text/javascript" src="https://cdn.bootcss.com/recorderjs/0.1.0/recorder.js"></script>-->
    <script type="text/javascript" src="/static/jQuery3.1.1.js"></script>
    
    <script type="text/javascript">
        var reco = null;
        var audio_context = new AudioContext();
        navigator.getUserMedia = (navigator.getUserMedia ||
            navigator.webkitGetUserMedia ||
            navigator.mozGetUserMedia ||
            navigator.msGetUserMedia);
    
        navigator.getUserMedia({audio: true}, create_stream, function (err) {
            console.log(err)
        });
    
        function create_stream(user_media) {
            var stream_input = audio_context.createMediaStreamSource(user_media);
            reco = new Recorder(stream_input);
        }
    
        function start_reco() {
            reco.record();
        }
    
    
        function stop_reco_audio() {
            reco.stop();
            send_audio();
            reco.clear();
        }
    
    
        function send_audio() {
            reco.exportWAV(function (wav_file) {
                var formdata = new FormData();
                formdata.append("record", wav_file);
                console.log(formdata);
                $.ajax({
                    url: "http://192.168.13.134:9527/ai",
                    type: 'post',
                    processData: false,
                    contentType: false,
                    data: formdata,
                    dataType: 'json',
                    success: function (data) {
                        document.getElementById("player").src ="http://192.168.13.134:9527/get_audio/" + data.filename
                    }
                });
    
            })
        }
      
    </script>
    </html>
    

      

  • 相关阅读:
    Python流程控制
    Python中的条件判断
    控制台出现“The script has an unsupported MIME type ('text/html')”报错
    React项目中使用hot-react-loader
    React组件绑定this的三种方法
    egg.js异步请求数据
    Zepto源码分析之二(新旧版本zepto.Z方法的区别)
    Zepto源码分析之一(代码结构及初始化)
    构建RN或Weex项目时,使用Android Studio常遇到的问题
    CentOS安装PHP7.*
  • 原文地址:https://www.cnblogs.com/li-li/p/10273412.html
Copyright © 2011-2022 走看看