語(yǔ)音AI的核心是讓機器聽(tīng)懂人話(huà)、并能開(kāi)口說(shuō)話(huà),語(yǔ)音合成和語(yǔ)音識別技術(shù)是實(shí)現這些目標的基礎。但由于過(guò)去幾年業(yè)界在語(yǔ)音模型上未能有突破性創(chuàng )新,高精度的語(yǔ)音交互任務(wù)長(cháng)期依賴(lài)云端算力,造成了語(yǔ)音指令處理不可避免的延時(shí)等問(wèn)題。
此次達摩院率先在算法模型上實(shí)現創(chuàng )新,推出E2E-ASR端到端語(yǔ)音識別技術(shù)及全新的端上KAN-TTS語(yǔ)音合成技術(shù),首次在移動(dòng)終端上實(shí)現接近云端的語(yǔ)音識別與合成效果。
據介紹,在語(yǔ)音識別方面,達摩院提出SAN-M網(wǎng)絡(luò )結構及基于SCAMA的流式端到端語(yǔ)音識別框架,提升計算效率的同時(shí),還將高難度場(chǎng)景中的語(yǔ)音識別錯誤率降低近三成。達摩院研發(fā)的語(yǔ)音識別系統,可純離線(xiàn)、低成本部署在手機端,原型系統不到40MB,識別效果媲美超過(guò)100GB的達摩院上一代DFSMN-CTC云端系統。
繼去年發(fā)布仿真率可達97%的自研KAN-TTS語(yǔ)音合成模型后,達摩院此次在移動(dòng)端實(shí)現了對語(yǔ)音模型的“大瘦身”,相比云端,端上模型大小壓縮了101倍,計算量壓縮35倍,通過(guò)終端算力即可快速復現逼近真人的語(yǔ)音。例如,高德地圖近期發(fā)布了利用達摩院全新語(yǔ)音技術(shù)合成的李佳琦、林志玲、小團團等明星導航語(yǔ)音包,語(yǔ)音效果較之前更自然,斷網(wǎng)狀態(tài)下語(yǔ)音導航也不會(huì )中斷。

(來(lái)源:信網(wǎng))
達摩院語(yǔ)音實(shí)驗室負責人鄢志杰表示,“在終端處理語(yǔ)音任務(wù)一直是學(xué)術(shù)界和工業(yè)界的難題,達摩院最新的語(yǔ)音技術(shù)有效釋放了終端設備的能力,讓終端也能輕松處理語(yǔ)音任務(wù),我們相信,在終端算力和云端算力的協(xié)同支撐下,未來(lái)語(yǔ)音交互將無(wú)處不在。”
過(guò)去幾年,阿里語(yǔ)音AI取得了一系列突破。2019年,阿里語(yǔ)音AI入選《麻省理工評論》“全球十大突破性技術(shù)”,是唯一上榜的中國科技公司;今年7月IDC發(fā)布的《中國AI云服務(wù)市場(chǎng)半年度研究報告》顯示,阿里語(yǔ)音AI以44%的市場(chǎng)份額,在云上語(yǔ)音AI市場(chǎng)中位居第一。
