1000字范文,内容丰富有趣,学习的好帮手!
1000字范文 > android实现调用科大讯飞语音识别功能详细步骤

android实现调用科大讯飞语音识别功能详细步骤

时间:2023-11-23 08:58:29

相关推荐

android实现调用科大讯飞语音识别功能详细步骤

一、申请注册科大用户和下载SDK(里面的appid要和自己的一样才可以使用)

详细步骤就不写了,注册网址:

二、注册完之后,点击创建应用-选择要使用的平台和选择自己所要实现的功能,点击下载sdk即可。

下载完解压压缩包如下图:

三、把sample里面的demo通过我们的开发工具打开,我用的是androidStudio,所以导入步骤为:

方法一(导入project方式):

打开Android Studio,在菜单栏File—>new—>import project当前解压sdk路径,使用离线服务能力选择导入mscV5PlusDemo,导入成功之后sync编译下,编译无误可连接手机,开启手机USB开发调试模式,直接在Android Studio运行导入的mscV5PlusDemo,最后生成的apk可直接安装在对应的手机上,如果编译时出现“ERROR: Plugin with id ‘com.android.application’ not found.”错误,请在build.gradle文件中添加以下代码。

buildscript {repositories {google()jcenter()}dependencies {//版本号请根据自己的gradle插件版本号自行更改classpath 'com.android.tools.build:gradle:3.4.0'// NOTE: Do not place your application dependencies here; they belong// in the individual module build.gradle files}}

方法二(导入module方式):

打开Android Studio,在菜单栏File—>new—>import module当前解压sdk路径,使用离线服务能力选择导入mscV5PlusDemo,导入成功之后sync编译下,编译无误可连接手机,开启手机USB开发调试模式,直接在Android Studio运行导入的mscV5PlusDemo,最后生成的apk可直接安装在对应的手机上。

至此利用官方提供的例子我们可以感受一下语言识别的魅力,而下面我们我们可以通过参考官方的例子来进行开发。

自我开发

一、创建一个新工程:

创建一个新的空项目。

二、创建以下目录结构:

将下载好的SDK中 libs 目录下的 Msc.jar包引入到工程中(参见/highboys/article/details/51549679,此外,因为本Demo中会用到json的东西,所以还得自己去网上下一个Gson的jar包,一并引进去)。之后在main目录下新建一个jniLibs目录,将 SDK中 libs 目录下的armeabi 拷进去:

权限以及所需包:(Manifest文件)

<?xml version="1.0" encoding="utf-8"?><manifest xmlns:android="/apk/res/android"package="com.example.speechprojecta"><uses-permission android:name="android.permission.RECORD_AUDIO" /><uses-permission android:name="android.permission.INTERNET" /><uses-permission android:name="android.permission.ACCESS_NETWORK_STATE" /><uses-permission android:name="android.permission.ACCESS_WIFI_STATE" /><uses-permission android:name="android.permission.CHANGE_NETWORK_STATE" /><uses-permission android:name="android.permission.READ_PHONE_STATE" /><uses-permission android:name="android.permission.ACCESS_FINE_LOCATION" /><uses-permission android:name="android.permission.READ_CONTACTS" /><uses-permission android:name="android.permission.WRITE_EXTERNAL_STORAGE" /><uses-permission android:name="android.permission.READ_EXTERNAL_STORAGE" /><applicationandroid:name=".MyApplication"android:allowBackup="true"android:icon="@mipmap/ic_launcher"android:label="@string/app_name"android:roundIcon="@mipmap/ic_launcher_round"android:supportsRtl="true"android:theme="@style/AppTheme"><activity android:name=".MainActivity"><intent-filter><action android:name="android.intent.action.MAIN" /><category android:name="android.intent.category.LAUNCHER" /></intent-filter></activity></application></manifest>

LogUtil类:

package com.example.speechprojecta;import android.text.TextUtils;import android.util.Log;class LogUtil {public static String tagPrefix = "";public static boolean showV = true;public static boolean showD = true;public static boolean showI = true;public static boolean showW = true;public static boolean showE = true;public static boolean showWTF = true;/*** 得到tag(所在类.方法(L:行))* @return*/private static String generateTag() {StackTraceElement stackTraceElement = Thread.currentThread().getStackTrace()[4];String callerClazzName = stackTraceElement.getClassName();callerClazzName = callerClazzName.substring(callerClazzName.lastIndexOf(".") + 1);String tag = "%s.%s(L:%d)";tag = String.format(tag, new Object[]{callerClazzName, stackTraceElement.getMethodName(), Integer.valueOf(stackTraceElement.getLineNumber())});//给tag设置前缀tag = TextUtils.isEmpty(tagPrefix) ? tag : tagPrefix + ":" + tag;return tag;}public static void v(String msg) {if (showV) {String tag = generateTag();Log.v(tag, msg);}}public static void v(String msg, Throwable tr) {if (showV) {String tag = generateTag();Log.v(tag, msg, tr);}}public static void d(String msg) {if (showD) {String tag = generateTag();Log.d(tag, msg);}}public static void d(String msg, Throwable tr) {if (showD) {String tag = generateTag();Log.d(tag, msg, tr);}}public static void i(String msg) {if (showI) {String tag = generateTag();Log.i(tag, msg);}}public static void i(String msg, Throwable tr) {if (showI) {String tag = generateTag();Log.i(tag, msg, tr);}}public static void w(String msg) {if (showW) {String tag = generateTag();Log.w(tag, msg);}}public static void w(String msg, Throwable tr) {if (showW) {String tag = generateTag();Log.w(tag, msg, tr);}}public static void e(String msg) {if (showE) {String tag = generateTag();Log.e(tag, msg);}}public static void e(String msg, Throwable tr) {if (showE) {String tag = generateTag();Log.e(tag, msg, tr);}}public static void wtf(String msg) {if (showWTF) {String tag = generateTag();Log.wtf(tag, msg);}}public static void wtf(String msg, Throwable tr) {if (showWTF) {String tag = generateTag();Log.wtf(tag, msg, tr);}}}

主activity:

package com.example.speechprojecta;import androidx.appcompat.app.AppCompatActivity;import android.app.Activity;import android.content.Context;import android.content.SharedPreferences;import android.os.Bundle;import android.os.Environment;import android.view.View;import android.widget.Button;import android.widget.EditText;import android.widget.Toast;import com.iflytek.cloud.ErrorCode;import com.iflytek.cloud.InitListener;import com.iflytek.cloud.RecognizerListener;import com.iflytek.cloud.RecognizerResult;import com.iflytek.cloud.SpeechConstant;import com.iflytek.cloud.SpeechError;import com.iflytek.cloud.SpeechRecognizer;import com.iflytek.cloud.ui.RecognizerDialog;import com.iflytek.cloud.ui.RecognizerDialogListener;import org.json.JSONException;import org.json.JSONObject;import java.util.ArrayList;import java.util.HashMap;import java.util.LinkedHashMap;public class MainActivity extends AppCompatActivity {private Context context;//public static final String PREFER_NAME = "com.voice.recognition";public static final String PREFER_NAME = "com.example.speechprojecta";// 语音听写对象private SpeechRecognizer mIat;// 语音听写UIprivate RecognizerDialog mIatDialog;// 用HashMap存储听写结果private HashMap<String, String> mIatResults = new LinkedHashMap<String, String>();private Toast mToast;private Button btStart,btStop,btCancel;private EditText etContent;private SharedPreferences mSharedPreferences;private int ret = 0; // 函数调用返回值// 引擎类型private String mEngineType = SpeechConstant.TYPE_CLOUD;/*** 初始化监听器。*/private InitListener mInitListener = new InitListener() {@Overridepublic void onInit(int code) {LogUtil.v("SpeechRecognizer init() code = " + code);if (code != ErrorCode.SUCCESS) {showTip("初始化失败,错误码:" + code);}}};@Overrideprotected void onCreate(Bundle savedInstanceState) {super.onCreate(savedInstanceState);setContentView(R.layout.activity_main);initData();findViewById();setOnclickListener();//按钮点击事件处理}private void setOnclickListener() {//开始监听按钮事件btStart.setOnClickListener(new View.OnClickListener() {@Overridepublic void onClick(View v) {checkSoIsInstallSucceed();etContent.setText(null);// 清空显示内容mIatResults.clear();// 设置参数setParam();boolean isShowDialog = mSharedPreferences.getBoolean(getString(R.string.pref_key_iat_show), true);if (isShowDialog) {// 显示听写对话框mIatDialog.setListener(mRecognizerDialogListener);mIatDialog.show();showTip(getString(R.string.text_begin));} else {// 不显示听写对话框ret = mIat.startListening(mRecognizerListener);if (ret != ErrorCode.SUCCESS) {showTip("听写失败,错误码:" + ret);} else {showTip(getString(R.string.text_begin));}}}});btStop.setOnClickListener(new View.OnClickListener() {@Overridepublic void onClick(View v) {checkSoIsInstallSucceed();}});btCancel.setOnClickListener(new View.OnClickListener() {@Overridepublic void onClick(View v) {checkSoIsInstallSucceed();}});}private void findViewById(){btStart = (Button) findViewById(R.id.btn_start);btStop = (Button) findViewById(R.id.btn_stop);btCancel = (Button) findViewById(R.id.btn_cancel);etContent = (EditText) findViewById(R.id.et_content);}private void initData() {context = MainActivity.this;// 初始化识别无UI识别对象/ 使用SpeechRecognizer对象,可根据回调消息自定义界面;mIat = com.iflytek.cloud.SpeechRecognizer.createRecognizer(context, mInitListener);// 初始化听写Dialog,如果只使用有UI听写功能,无需创建SpeechRecognizer// 使用UI听写功能,请根据sdk文件目录下的notice.txt,放置布局文件和图片资源mIatDialog = new RecognizerDialog(context, mInitListener);mToast = Toast.makeText(this, "", Toast.LENGTH_SHORT);mSharedPreferences = getSharedPreferences(MainActivity.PREFER_NAME,Activity.MODE_PRIVATE);}//检查是否成功创建对象private void checkSoIsInstallSucceed(){if( null == mIat ){// 创建单例失败,与 21001 错误为同样原因,参考 /forum.php?mod=viewthread&tid=9688this.showTip( "创建对象失败,请确认 libmsc.so 放置正确,且有调用 createUtility 进行初始化" );return;}}private void showTip( final String str) {mToast.setText(str);mToast.show();}//设置参数public void setParam() {mIat.setParameter(SpeechConstant.PARAMS, null); // 清空参数mIat.setParameter(SpeechConstant.ENGINE_TYPE, mEngineType); // 设置听写引擎mIat.setParameter(SpeechConstant.RESULT_TYPE, "json"); // 设置返回结果格式String lag = mSharedPreferences.getString("iat_language_preference","mandarin");if (lag.equals("en_us")) {// 设置语言mIat.setParameter(SpeechConstant.LANGUAGE, "en_us");} else {// 设置语言mIat.setParameter(SpeechConstant.LANGUAGE, "zh_cn");// 设置语言区域mIat.setParameter(SpeechConstant.ACCENT, lag);}// 设置语音前端点:静音超时时间,即用户多长时间不说话则当做超时处理mIat.setParameter(SpeechConstant.VAD_BOS, mSharedPreferences.getString("iat_vadbos_preference", "4000"));// 设置语音后端点:后端点静音检测时间,即用户停止说话多长时间内即认为不再输入, 自动停止录音mIat.setParameter(SpeechConstant.VAD_EOS, mSharedPreferences.getString("iat_vadeos_preference", "1000"));// 设置标点符号,设置为"0"返回结果无标点,设置为"1"返回结果有标点mIat.setParameter(SpeechConstant.ASR_PTT, mSharedPreferences.getString("iat_punc_preference", "1"));// 设置音频保存路径,保存音频格式支持pcm、wav,设置路径为sd卡请注意WRITE_EXTERNAL_STORAGE权限// 注:AUDIO_FORMAT参数语记需要更新版本才能生效mIat.setParameter(SpeechConstant.AUDIO_FORMAT,"wav");mIat.setParameter(SpeechConstant.ASR_AUDIO_PATH, Environment.getExternalStorageDirectory()+"/msc/iat.wav");}//识别回调函数private RecognizerDialogListener mRecognizerDialogListener = new RecognizerDialogListener() {public void onResult(RecognizerResult results, boolean isLast) {printResult(results);String text1 = JsonParser.parseIatResult(results.getResultString());System.out.println(text1);String tt="开灯";// Toast.makeText(context, text1, Toast.LENGTH_LONG).show();if (text1.equals(tt)){Toast.makeText(context,"ninhao",Toast.LENGTH_SHORT).show();}}/*** 识别回调错误.*/public void onError(SpeechError error) {showTip(error.getPlainDescription(true));}};/*** 听写监听器。*/private RecognizerListener mRecognizerListener = new RecognizerListener() {@Overridepublic void onBeginOfSpeech() {// 此回调表示:sdk内部录音机已经准备好了,用户可以开始语音输入showTip("开始说话");}@Overridepublic void onError(SpeechError error) {// Tips:// 错误码:10118(您没有说话),可能是录音机权限被禁,需要提示用户打开应用的录音权限。// 如果使用本地功能(语记)需要提示用户开启语记的录音权限。showTip(error.getPlainDescription(true));}@Overridepublic void onEndOfSpeech() {// 此回调表示:检测到了语音的尾端点,已经进入识别过程,不再接受语音输入showTip("结束说话");}@Overridepublic void onResult(RecognizerResult results, boolean isLast) {LogUtil.v(results.getResultString());printResult(results);if (isLast) {// TODO 最后的结果}}@Overridepublic void onVolumeChanged(int volume, byte[] data) {showTip("当前正在说话,音量大小:" + volume);LogUtil.v("返回音频数据:"+data.length);}@Overridepublic void onEvent(int eventType, int arg1, int arg2, Bundle obj) {// 以下代码用于获取与云端的会话id,当业务出错时将会话id提供给技术支持人员,可用于查询会话日志,定位出错原因// 若使用本地能力,会话id为null//if (SpeechEvent.EVENT_SESSION_ID == eventType) {//String sid = obj.getString(SpeechEvent.KEY_EVENT_SESSION_ID);//Log.d(TAG, "session id =" + sid);//}}};//打印听写识别结果private void printResult(RecognizerResult results) {String text = JsonParser.parseIatResult(results.getResultString());String sn = null;// 读取json结果中的sn字段try {JSONObject resultJson = new JSONObject(results.getResultString());sn = resultJson.optString("sn");} catch (JSONException e) {e.printStackTrace();}mIatResults.put(sn, text);StringBuffer resultBuffer = new StringBuffer();for (String key : mIatResults.keySet()) {resultBuffer.append(mIatResults.get(key));}etContent.setText(resultBuffer.toString());etContent.setSelection(etContent.length());}@Overrideprotected void onDestroy() {super.onDestroy();if (null != mIat) {// 退出时释放连接mIat.cancel();mIat.destroy();}}}

识别效果:

ps:请使用真机测试。测试时要连网,这个是联网识别的。

实现功能:点击按钮识别语音,如果识别到开灯关键字,则出现Toast提示。

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。