8月18日,谷歌宣布開源Android語音識別轉錄工具Live Transcribe的語音引擎。這家公司希望這樣做可以讓任何開發(fā)人員為長篇對話提供字幕,減
8月18日,谷歌宣布開源Android語音識別轉錄工具Live Transcribe的語音引擎。
這家公司希望這樣做可以讓任何開發(fā)人員為長篇對話提供字幕,減少因網(wǎng)絡延遲、斷網(wǎng)等問題導致的溝通障礙。源代碼現(xiàn)在可以在GitHub上獲得。這意味著無論你是出國或是與新朋友見面,Live Transcribe都可以幫助你進行溝通。
交流時可以實時暢通(只要有網(wǎng)絡)
谷歌于今年2月發(fā)布了Live Transcribe。該工具使用機器學習算法將音頻轉換為實時字幕,與Android即將推出的Live Caption功能不同,Live Transcribe是一種全屏體驗,使用智能手機的麥克風(或外接麥克風),并依賴于Google Cloud Speech API。Live Transcribe可以用70多種語言和方言標題實時口語。另一個主要區(qū)別是Live Transcribe可在18億臺Android設備上使用(當Live Caption在今年晚些時候推出時,它只適用于部分Android Q設備)。
在云上工作
谷歌的Cloud Speech API目前不支持發(fā)送無限長的音頻流。此外,依賴云意味著網(wǎng)絡連接、數(shù)據(jù)成本和延遲方面都有潛在問題。
結果,語音引擎在達到超時之前關閉并重新啟動流請求,包括在長時間靜默期間重新開始會話并且每當語音中檢測到暫停時關閉。在會話之間,語音引擎還在本地緩沖音頻,然后在重新連接時發(fā)送它。因此,谷歌避免了截斷的句子或單詞,并減少了會話中丟失的文本量。
70多種語言和方言中挑選自己合適的
為了降低帶寬需求和成本,谷歌還評估了不同的音頻編解碼器:FLAC,AMR-WB和Opus。FLAC(無損編解碼器)可以保持準確性,不會節(jié)省太多數(shù)據(jù),并且具有明顯的編解碼器延遲。AMR-WB可以節(jié)省大量數(shù)據(jù),但在嘈雜的環(huán)境中準確度較低。
與此同時,Opus允許數(shù)據(jù)速率比大多數(shù)音樂流媒體服務低許多倍,同時仍保留音頻信號的重要細節(jié)。谷歌還會在長時間的靜音期間使用語音檢測來關閉網(wǎng)絡連接。
總體而言,該團隊能夠實現(xiàn)“在不影響準確性的情況下,將數(shù)據(jù)使用量減少10倍”。
為了比Cloud Speech API更進一步減少延遲,Live Transcribe使用自定義Opus編碼器。編碼器恰好提高了比特率,使“延遲在視覺上無法區(qū)分發(fā)送未壓縮的音頻”。
Live Transcribe語音引擎功能
谷歌列出了語音引擎的以下功能(不包括說話人識別):
無限流媒體。
支持70多種語言。
可以簡化網(wǎng)絡丟失(在網(wǎng)絡和Wi-Fi之間切換時)。文字不會丟失,只會延遲。
強大的擴展網(wǎng)絡損耗。即使網(wǎng)絡已經(jīng)停電數(shù)小時,也會重新連接。當然,沒有連接就不能進行語音識別。
可以輕松啟用和配置Opus,AMR-WB和FLAC編碼。
包含文本格式庫,用于可視化ASR置信度、發(fā)言人ID等。
可離線模型擴展。
內置支持語音檢測器,可在延長靜音期間用于停止ASR,以節(jié)省資金和數(shù)據(jù)。
內置支持揚聲器識別,可根據(jù)揚聲器編號標記或著色文本。
字幕會隨著對話的深入而調整
該文檔指出這些庫與生產(chǎn)應用程序Live Transcribe中運行的庫“幾乎相同”。谷歌已對其進行了“廣泛的現(xiàn)場測試和單元測試”,但測試本身并非開源。但谷歌確實提供了APK,因此開發(fā)者可以在不構建任何代碼的情況下試用該庫。
關鍵詞: 谷歌 Live Transcribe 語音引擎