Java SDK
本文介紹如何使用智能語音交互一句話識別的Java SDK,包括SDK的安裝方法及SDK代碼示例等。
注意事項
在使用SDK前,請先閱讀接口說明,詳情請參見接口說明。
從2.1.0版本開始,原有nls-sdk-short-asr更名為nls-sdk-recognizer,升級時需確認已刪除nls-sdk-short-asr,并按編譯提示添加相應(yīng)的回調(diào)方法。
下載安裝
從Maven服務(wù)器下載最新版本SDK。
<dependency> <groupId>com.alibaba.nls</groupId> <artifactId>nls-sdk-recognizer</artifactId> <version>2.2.1</version> </dependency>
解壓ZIP文件,在pom目錄運行
mvn package
,會在target目錄生成可執(zhí)行JAR:nls-example-recognizer-2.0.0-jar-with-dependencies.jar,將JAR包拷貝至目標服務(wù)器,用于快速驗證及服務(wù)壓測。服務(wù)驗證。
運行如下代碼,并按提示提供相應(yīng)參數(shù)。運行后在命令執(zhí)行目錄生成logs/nls.log。
java -cp nls-example-recognizer-2.0.0-jar-with-dependencies.jar com.alibaba.nls.client.SpeechRecognizerDemo
服務(wù)壓測。
運行如下代碼,并按提示提供相應(yīng)參數(shù)。其中阿里云服務(wù)URL參數(shù)為:
wss://nls-gateway-cn-shanghai.aliyuncs.com/ws/v1
,語音文件為16k采樣率PCM格式文件,并發(fā)數(shù)根據(jù)您的購買情況進行選擇。java -jar nls-example-recognizer-2.0.0-jar-with-dependencies.jar
重要自行壓測超過2路并發(fā)會產(chǎn)生費用。
關(guān)鍵接口
NlsClient:語音處理客戶端,利用該客戶端可以進行一句話識別、實時語音識別和語音合成的語音處理任務(wù)。該客戶端為線程安全,建議全局僅創(chuàng)建一個實例。
SpeechRecognizer:一句話識別處理類,通過該接口設(shè)置請求參數(shù),發(fā)送請求及聲音數(shù)據(jù)。非線程安全。
SpeechRecognizerListener:識別結(jié)果監(jiān)聽類,監(jiān)聽識別結(jié)果。非線程安全。
更多介紹,請參見Java API接口說明。
SDK調(diào)用注意事項:
NlsClient使用了Netty框架,NlsClient對象的創(chuàng)建會消耗一定時間和資源,一經(jīng)創(chuàng)建可以重復(fù)使用。建議調(diào)用程序?qū)lsClient的創(chuàng)建和關(guān)閉與程序本身的生命周期結(jié)合。
SpeechRecognizer對象不可重復(fù)使用,一個識別任務(wù)對應(yīng)一個SpeechRecognizer對象。例如,N個音頻文件要進行N次識別任務(wù),需要創(chuàng)建N個SpeechRecognizer對象。
SpeechRecognizerListener對象和SpeechRecognizer對象是一一對應(yīng)的,不能將一個SpeechRecognizerListener對象設(shè)置到多個SpeechRecognizer對象中,否則不能將各識別任務(wù)區(qū)分開。
Java SDK依賴Netty網(wǎng)絡(luò)庫,如果您的應(yīng)用依賴Netty,其版本需更新至4.1.17.Final及以上。
代碼示例
示例中使用的音頻文件為16000 Hz采樣率,請在管控臺中將AppKey對應(yīng)項目的模型設(shè)置為通用模型,以獲取準確的識別效果。如果使用其他音頻,請設(shè)置為支持該音頻場景的模型,關(guān)于模型設(shè)置,請參見管理項目。
示例中使用SDK內(nèi)置的默認一句話識別服務(wù)的外網(wǎng)訪問服務(wù)URL,如果您使用阿里云上海ECS,且需要使用內(nèi)網(wǎng)訪問服務(wù)URL,則在創(chuàng)建NlsClient對象時,設(shè)置內(nèi)網(wǎng)訪問的URL:
client = new NlsClient("ws://nls-gateway-cn-shanghai-internal.aliyuncs.com/ws/v1", accessToken);
調(diào)用接口前,需配置環(huán)境變量,通過環(huán)境變量讀取訪問憑證。智能語音交互的AccessKey ID、AccessKey Secret和AppKey的環(huán)境變量名:ALIYUN_AK_ID、ALIYUN_AK_SECRET、NLS_APP_KEY。
import java.io.File;
import java.io.FileInputStream;
import java.io.IOException;
import com.alibaba.nls.client.protocol.InputFormatEnum;
import com.alibaba.nls.client.protocol.NlsClient;
import com.alibaba.nls.client.protocol.SampleRateEnum;
import com.alibaba.nls.client.protocol.asr.SpeechRecognizer;
import com.alibaba.nls.client.protocol.asr.SpeechRecognizerListener;
import com.alibaba.nls.client.protocol.asr.SpeechRecognizerResponse;
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;
/**
* 此示例演示了:
* ASR一句話識別API調(diào)用。
* 動態(tài)獲取Token。獲取Token具體操作,請參見:http://bestwisewords.com/document_detail/450514.html
* 通過本地文件模擬實時流發(fā)送。
* 識別耗時計算。
*/
public class SpeechRecognizerDemo {
private static final Logger logger = LoggerFactory.getLogger(SpeechRecognizerDemo.class);
private String appKey;
NlsClient client;
public SpeechRecognizerDemo(String appKey, String id, String secret, String url) {
this.appKey = appKey;
//應(yīng)用全局創(chuàng)建一個NlsClient實例,默認服務(wù)地址為阿里云線上服務(wù)地址。
//獲取Token,實際使用時注意在accessToken.getExpireTime()過期前再次獲取。
AccessToken accessToken = new AccessToken(id, secret);
try {
accessToken.apply();
System.out.println("get token: " + accessToken.getToken() + ", expire time: " + accessToken.getExpireTime());
if(url.isEmpty()) {
client = new NlsClient(accessToken.getToken());
}else {
client = new NlsClient(url, accessToken.getToken());
}
} catch (IOException e) {
e.printStackTrace();
}
}
private static SpeechRecognizerListener getRecognizerListener(int myOrder, String userParam) {
SpeechRecognizerListener listener = new SpeechRecognizerListener() {
//識別出中間結(jié)果。僅當(dāng)setEnableIntermediateResult為true時,才會返回該消息。
@Override
public void onRecognitionResultChanged(SpeechRecognizerResponse response) {
//getName是獲取事件名稱,getStatus是獲取狀態(tài)碼,getRecognizedText是語音識別文本。
System.out.println("name: " + response.getName() + ", status: " + response.getStatus() + ", result: " + response.getRecognizedText());
}
//識別完畢
@Override
public void onRecognitionCompleted(SpeechRecognizerResponse response) {
//getName是獲取事件名稱,getStatus是獲取狀態(tài)碼,getRecognizedText是語音識別文本。
System.out.println("name: " + response.getName() + ", status: " + response.getStatus() + ", result: " + response.getRecognizedText());
}
@Override
public void onStarted(SpeechRecognizerResponse response) {
System.out.println("myOrder: " + myOrder + "; myParam: " + userParam + "; task_id: " + response.getTaskId());
}
@Override
public void onFail(SpeechRecognizerResponse response) {
//task_id是調(diào)用方和服務(wù)端通信的唯一標識,當(dāng)遇到問題時,需要提供此task_id。
System.out.println("task_id: " + response.getTaskId() + ", status: " + response.getStatus() + ", status_text: " + response.getStatusText());
}
};
return listener;
}
//根據(jù)二進制數(shù)據(jù)大小計算對應(yīng)的同等語音長度
//sampleRate僅支持8000或16000。
public static int getSleepDelta(int dataSize, int sampleRate) {
// 僅支持16位采樣。
int sampleBytes = 16;
// 僅支持單通道。
int soundChannel = 1;
return (dataSize * 10 * 8000) / (160 * sampleRate);
}
public void process(String filepath, int sampleRate) {
SpeechRecognizer recognizer = null;
try {
//傳遞用戶自定義參數(shù)
String myParam = "user-param";
int myOrder = 1234;
SpeechRecognizerListener listener = getRecognizerListener(myOrder, myParam);
recognizer = new SpeechRecognizer(client, listener);
recognizer.setAppKey(appKey);
//設(shè)置音頻編碼格式。如果是OPUS文件,請設(shè)置為InputFormatEnum.OPUS。
recognizer.setFormat(InputFormatEnum.PCM);
//設(shè)置音頻采樣率
if(sampleRate == 16000) {
recognizer.setSampleRate(SampleRateEnum.SAMPLE_RATE_16K);
} else if(sampleRate == 8000) {
recognizer.setSampleRate(SampleRateEnum.SAMPLE_RATE_8K);
}
//設(shè)置是否返回中間識別結(jié)果
recognizer.setEnableIntermediateResult(true);
//設(shè)置是否打開語音檢測(即vad)
recognizer.addCustomedParam("enable_voice_detection",true);
//此方法將以上參數(shù)設(shè)置序列化為JSON發(fā)送給服務(wù)端,并等待服務(wù)端確認。
long now = System.currentTimeMillis();
recognizer.start();
logger.info("ASR start latency : " + (System.currentTimeMillis() - now) + " ms");
File file = new File(filepath);
FileInputStream fis = new FileInputStream(file);
byte[] b = new byte[3200];
int len;
while ((len = fis.read(b)) > 0) {
logger.info("send data pack length: " + len);
recognizer.send(b, len);
//本案例用讀取本地文件的形式模擬實時獲取語音流,因為讀取速度較快,這里需要設(shè)置sleep時長。
// 如果實時獲取語音則無需設(shè)置sleep時長,如果是8k采樣率語音第二個參數(shù)設(shè)置為8000。
int deltaSleep = getSleepDelta(len, sampleRate);
Thread.sleep(deltaSleep);
}
//通知服務(wù)端語音數(shù)據(jù)發(fā)送完畢,等待服務(wù)端處理完成。
now = System.currentTimeMillis();
//計算實際延遲,調(diào)用stop返回之后一般即是識別結(jié)果返回時間。
logger.info("ASR wait for complete");
recognizer.stop();
logger.info("ASR stop latency : " + (System.currentTimeMillis() - now) + " ms");
fis.close();
} catch (Exception e) {
System.err.println(e.getMessage());
} finally {
//關(guān)閉連接
if (null != recognizer) {
recognizer.close();
}
}
}
public void shutdown() {
client.shutdown();
}
public static void main(String[] args) throws Exception {
String appKey = System.getenv().get("NLS_APP_KEY");
String id = System.getenv().get("ALIYUN_AK_ID");
String secret = System.getenv().get("ALIYUN_AK_SECRET");
String url = System.getenv().getOrDefault("NLS_GATEWAY_URL", "wss://nls-gateway-cn-shanghai.aliyuncs.com/ws/v1");
SpeechRecognizerDemo demo = new SpeechRecognizerDemo(appKey, id, secret, url);
//本案例使用本地文件模擬發(fā)送實時流數(shù)據(jù)。
demo.process("./nls-sample-16k.wav", 16000);
//demo.process("./nls-sample.opus", 16000);
demo.shutdown();
}
}
常見問題
使用Java SDK,SpeechRecognizer recognizer如何調(diào)用stop()實現(xiàn)通知服務(wù)端語音數(shù)據(jù)發(fā)送完畢?
正常情況下自動取調(diào)用,不需要單獨調(diào)用stop()。如果10秒之內(nèi)沒有語音數(shù)據(jù)發(fā)給服務(wù)側(cè), 會報錯41010120。如果一直實時發(fā)送語音數(shù)據(jù)給服務(wù)端,識別在服務(wù)側(cè)是一直進行的,您可以通過設(shè)置
enable_intermediate_result=true
參數(shù)實時獲取識別結(jié)果。如果您判斷一句話結(jié)束,也可以主動調(diào)用stop()停止發(fā)送數(shù)據(jù),獲取最終識別結(jié)果。
Java版SDK可以直接提供上傳音頻文件的方式進行識別嗎?
如下圖所示,SDK示例通過調(diào)用RESTfulAPI接口,實現(xiàn)上傳音頻文件進行識別,詳情請參見一句話識別Java SDK。
一句話識別、實時語音識別SDK中,send接口參數(shù)含義及使用方式?
以Java為例。java SDK中,一句話識別和實時語音識別分別提供了三個重載的send()
接口。如下:
public void send(InputStream ins);
public void send(InputStream ins, int batchSize, int sleepInterval);
public void send(byte[] data);
三個接口使用時要保證持續(xù)、實時地向服務(wù)端發(fā)送語音數(shù)據(jù)。
demo是用語音文件模擬實時語音流的速度發(fā)送語音,通常一次發(fā)送間隔時間為100 ms或200 ms(sleepInterval)的語音數(shù)據(jù),數(shù)據(jù)量(batchSize)和采樣率有關(guān):發(fā)送間隔過大,會導(dǎo)致延遲較大,容易斷連;發(fā)送間隔過小,會消耗服務(wù)端和網(wǎng)絡(luò)資源。可以適當(dāng)實驗調(diào)整到合適數(shù)值。
第2個接口中ins
為模擬語音流,需要控制發(fā)送速率。ins中的數(shù)據(jù)每間隔100 ms,發(fā)送3200字節(jié)(16000采樣率)。調(diào)用示例:
public void send(ins, 3200, 100); // 16 kHz語音
第3個接口中data
為一次性發(fā)送的數(shù)據(jù),控制循環(huán)調(diào)用的間隔,調(diào)用示例:
recognizer.send(data); // 100 ms 語音數(shù)據(jù)
try {
Thread.sleep(100);
} catch (InterruptedException e) {
e.printStackTrace();
}
如何結(jié)合SDK日志分析延遲問題?
以Java SDK日志為例。
一句話識別的延遲為一句話說完開始,到收到最終識別結(jié)果為止,消耗的時間。
在日志中搜索關(guān)鍵字
StopRecognition
以及RecognitionCompleted
,分別找到語音發(fā)送完畢時的日志,以及一句話識別結(jié)束的日志。記錄的時間差即為SDK端記錄的一句話延時,如下日志延遲為:984-844=140(ms)。14:24:44.844 DEBUG [ main] [c.a.n.c.transport.netty4.NettyConnection] thread:1,send:{"header":{"namespace":"SpeechRecognizer","name":"StopRecognition","message_id":"bccac69b505f4e2897d12940e5b38953","appkey":"FWpPCaVYDRp6J1rO","task_id":"8c5c28d9a40c4a229a5345c09bc9c968"}} 14:24:44.984 DEBUG [ntLoopGroup-2-1] [ c.a.n.c.p.asr.SpeechRecognizerListener] on message:{"header":{"namespace":"SpeechRecognizer","name":"RecognitionCompleted","status":20000000,"message_id":"2869e93427b9429190206123b7a3d397","task_id":"8c5c28d9a40c4a229a5345c09bc9c968","status_text":"Gateway:SUCCESS:Success."},"payload":{"result":"北京的天氣。","duration":2959}}
語音合成關(guān)注首包延遲,即從發(fā)送合成請求開始,到收到第一個語音包為止,消耗的時間。
日志中搜索關(guān)鍵字
send
,找到這條日志和緊隨其后的一條收到語音包的日志。記錄的時間差即為SDK端記錄的首包延時。如下日志延時為1035-813=222(ms)。14:32:13.813 DEBUG [ main] [c.a.n.c.transport.netty4.NettyConnection] thread:1,send:{"payload":{"volume":50,"voice":"Ruoxi","sample_rate":8000,"format":"wav","text":"國家是由領(lǐng)土、人民、文化和政府四個要素組成的,國家也是政治地理學(xué)名詞。從廣義的角度,國家是指擁有共同的語言、文化、血統(tǒng)、領(lǐng)土、政府或者歷史等的社會群體。從狹義的角度,國家是一定范圍內(nèi)的人群所形成的共同體形式。"},"context":{"sdk":{"name":"nls-sdk-java","version":"2.1.0"},"network":{"upgrade_cost":160,"connect_cost":212}},"header":{"namespace":"SpeechSynthesizer","name":"StartSynthesis","message_id":"6bf2a84444434c0299974d8242380d6c","appkey":"FWpPCaVYDRp6J1rO","task_id":"affa5c90986e4378907fbf49eddd283a"}} 14:32:14.035 INFO [ntLoopGroup-2-1] [ c.a.n.c.protocol.tts.SpeechSynthesizer] write array:6896
實時語音識別SDK日志類似一句話識別,可以從日志中計算語音末尾處延遲(關(guān)鍵字:
StopTranscription
和TranscriptionCompleted
)。RESTful形式訪問,客戶端自帶日志中沒有體現(xiàn)延遲。需要用戶自己編寫代碼,或者查看服務(wù)端日志。
Java SDK找不到com.alibaba的JAR包,如何安裝Alibaba Cloud SDK for Java?
請參見V1.0 Java SDK(不推薦)安裝Alibaba Cloud SDK for Java。
Java SDK通過傳入阿里云賬號的AccessKey ID和AccessKey Secret,調(diào)用阿里云Java SDK得到client提示錯誤org.json.JSONArray.iterator()Ljava/util/Iterator如何解決?
請確認依賴包是否完整,查找并添加如下兩個依賴JAR包。
<dependency>
<groupId>org.json</groupId>
<artifactId>json</artifactId>
<version>20170516</version>
</dependency>
<dependency>
<groupId>com.google.code.gson</groupId>
<artifactId>gson</artifactId>
<version>2.8.2</version>
</dependency>