另一家研究公司Data Bridge Market Research預計,到2027年,市場(chǎng)規模將達到42億美元,年復合增長(cháng)率為17.8%。
雖然數字略有不同,但兩家公司都表示,企業(yè)希望提高座席績(jì)效、打擊聯(lián)絡(luò )中心欺詐、從客戶(hù)互動(dòng)中提取見(jiàn)解、識別客戶(hù)在通話(huà)中的情緒、提高客戶(hù)滿(mǎn)意度,這些因素將加速語(yǔ)音分析市場(chǎng)的增長(cháng)。“人工智能帶來(lái)的積極影響將在預測期內進(jìn)一步為語(yǔ)音和語(yǔ)音分析市場(chǎng)的增長(cháng)創(chuàng )造新的機會(huì ),”Data Bridge在報告中總結道。
年度回顧
2020年,語(yǔ)音分析技術(shù)不斷進(jìn)步,尤其是供應商將人工智能納入其解決方案。語(yǔ)音技術(shù)提供商不僅更新了他們的解決方案,而且在過(guò)去的一年中還增加了一些全新的產(chǎn)品。
例如,CallMiner發(fā)布了Illuminate,這是一種人工智能驅動(dòng)的搜索功能,可以幫助用戶(hù)發(fā)現客戶(hù)交互數據中的趨勢。公司總裁兼首席執行官PaulBernard在一份聲明中表示:“Illustration加快了我們客戶(hù)洞察價(jià)值的時(shí)間,降低了分析師使用它所需的時(shí)間。”
CallMiner還發(fā)布了一個(gè)連續成熟度模型,該模型評估了公司使用敬業(yè)度分析的成熟度水平,并提供了下一步的見(jiàn)解。Bernard說(shuō):“它為客戶(hù)提供了一個(gè)前進(jìn)的路線(xiàn)圖,說(shuō)明他們應該在哪里投資,以及他們能獲得的實(shí)際收益。”
10月,NICEinContact發(fā)布了與Salesforce Einstein集成的CXone Performance Analytics,這是一個(gè)人工智能驅動(dòng)的分析應用程序,它分析混合的聯(lián)絡(luò )中心和CRM數據,以確定改進(jìn)關(guān)鍵績(jì)效指標(KPIs)的具體建議。NICE inContact CXone的新可選附加組件在Salesforce AppExchange上提供。
CXone with Einstein將聯(lián)絡(luò )中心全渠道報告數據與Salesforce數據相結合,創(chuàng )建360度分析,并提供數據驅動(dòng)的預測,旨在提高首次聯(lián)系解決率、座席占用率和銷(xiāo)售效率。
“COVID-19對傳統的基準和KPI跟蹤工具提出了新的挑戰,原因是客戶(hù)需求和座席工作環(huán)境和任務(wù)(包括在家工作)發(fā)生了突然而實(shí)質(zhì)性的變化,互動(dòng)量增加。”NICE inContact在一份聲明中說(shuō):“針對Salesforce Einstein的CXone Performance Analytics可幫助領(lǐng)導者快速了解新的標準,并識別新的趨勢和改進(jìn)機會(huì ),而不僅僅是現有KPI管理工具所能提供的。”
今年早些時(shí)候,Verint推出了一個(gè)與Microsoft Teams的錄音集成,旨在幫助企業(yè)集中捕獲、保留、分析和檢索來(lái)自Microsoft Teams通話(huà)和會(huì )議場(chǎng)景的所有通信,包括語(yǔ)音通話(huà)、聊天、在線(xiàn)會(huì )議、屏幕共享等。Verint與Microsoft Teams的本地集成有助于企業(yè)利用最新的數字協(xié)作渠道,同時(shí)遵守不斷變化的法規。
語(yǔ)音分析行業(yè)也經(jīng)歷了一系列整合,2020年還發(fā)生了大量關(guān)鍵收購。其中包括4月Medallia收購Voci Technologies和9月Stella Connect,7月Astute收購iPerceptions,Pegasystems收購Qurious.io,以及RingCentral與語(yǔ)音分析初創(chuàng )公司DeepAffects的交易。RingCentral計劃將人工智能語(yǔ)音分析集成到RingCentral統一通信和聯(lián)絡(luò )中心平臺。在宣布收購時(shí),RingCentral的首席創(chuàng )新官Kira Makagon稱(chēng)DeepAffects的AI模型“非常富有”。他們收集來(lái)電者的情緒、討論的話(huà)題以及交談與傾聽(tīng)比率的詳細信息。“
展望未來(lái)
除了Data Bridge報告中提到的用途外,公司還使用語(yǔ)音分析來(lái)幫助生成營(yíng)銷(xiāo)數據、識別來(lái)電者沮喪的原因、跟蹤沉默,并將服務(wù)擴展到其他渠道。
Forrester Research首席分析師Brandon Purcell在去年早些時(shí)候的一份報告中建議,公司更多地依賴(lài)語(yǔ)音分析,而較少依賴(lài)基于位置的分析,他說(shuō),由于COVID-19被封鎖,消費者遠離實(shí)體位置,因此基于位置的分析變得不那么重要。
“由于深度學(xué)習的進(jìn)步,文本和語(yǔ)音分析比以往任何時(shí)候都更加準確和深刻,”Purcell當時(shí)說(shuō)。“利用這些工具篩選內部、客戶(hù)反饋數據以及外部數據(如社交媒體),以破譯新出現的問(wèn)題,并應對不斷變化的客戶(hù)敏感度。”
Verint Systems負責客戶(hù)分析和語(yǔ)音分析的副總裁Daniel Ziv表示,公司已經(jīng)在計劃中擴大了語(yǔ)音分析的使用,但這場(chǎng)流行病促使他們加快了時(shí)間進(jìn)度。
“這是一個(gè)巨大的轉變,”Ziv說(shuō),他指出,呼叫聯(lián)絡(luò )中心的電話(huà)增加,以及聯(lián)絡(luò )中心人員向遠程工作轉移。“對一些公司來(lái)說(shuō),通話(huà)數量增加了兩倍或三倍。”
另一家分析供應商Clarabridge最近發(fā)現,51%的消費者和92%的企業(yè)將手機視為他們的首選客戶(hù)/企業(yè)互動(dòng)渠道,這表明了分析這些聯(lián)系人以獲得客戶(hù)反饋的重要性。
“公司正依賴(lài)語(yǔ)音分析來(lái)聚合客戶(hù)的聲音,”今年1月被Khoros收購的對話(huà)分析平臺提供商Topbox的創(chuàng )始人兼首席執行官Chris Tranquill補充道。Tranquill指出,2019年,使用語(yǔ)音分析進(jìn)行客戶(hù)之聲(VoC)的公司數量已經(jīng)有所上升,2020年,隨著(zhù)公司開(kāi)始尋找補充或替代更傳統調查的方法,這一數字增長(cháng)更大。
“公司必須表現得更好。他們需要獲得更廣泛的數據。越來(lái)越多的人關(guān)注客戶(hù)體驗,”他說(shuō)。“傳統的調查平臺未必是客戶(hù)體驗的最佳指標。他們沒(méi)有提供足夠的深度和背景。大多數客戶(hù)甚至不填寫(xiě)。你不能僅僅依靠調查來(lái)獲取可操作的數據。但是有成千上萬(wàn)的電話(huà)交談。”
通過(guò)依賴(lài)語(yǔ)音分析而不是或除了調查之外,公司可以更準確地捕捉客戶(hù)的情緒,不僅是關(guān)于聯(lián)絡(luò )中心的體驗,還包括產(chǎn)品評論,Tranquill說(shuō),還應該包括聊天信息,以便最好地處理客戶(hù)的聲音。
Ziv說(shuō),除了VoC相關(guān)信息外,語(yǔ)音分析,尤其是與人工智能結合使用時(shí),有助于提高通話(huà)自助服務(wù)的效率。語(yǔ)音分析可以提醒座席在打電話(huà)時(shí)增加銷(xiāo)售和交叉銷(xiāo)售機會(huì ),從而提供幾年前技術(shù)發(fā)展緩慢時(shí)無(wú)法提供的絕佳銷(xiāo)售機會(huì )。
“語(yǔ)音分析在客戶(hù)參與方面提供了很多豐富的見(jiàn)解,”Ziv補充道。“這對于質(zhì)量監控來(lái)說(shuō)也是巨大的。”
質(zhì)量監控不僅對評級和指導座席很重要,而且對合規性也越來(lái)越重要,特別是在債務(wù)催收、金融服務(wù)或需要在談話(huà)過(guò)程中披露信息的行業(yè)。Ziv說(shuō),如果沒(méi)有語(yǔ)音分析,聯(lián)絡(luò )中心就無(wú)法跟上要求合規相關(guān)質(zhì)量監控的電話(huà)數量的增長(cháng)。
合并、收購和集成活動(dòng)的增加表明,用戶(hù)公司和技術(shù)提供商都非常重視這項技術(shù),這是有充分理由的。
“語(yǔ)音分析面臨的壓力越來(lái)越大。對語(yǔ)音分析的需求是顯而易見(jiàn)的,它不會(huì )放慢速度。它可以幫助人們追加銷(xiāo)售和交叉銷(xiāo)售。這對合規性來(lái)說(shuō)是巨大的挑戰。”Ziv說(shuō)。
聲明:版權所有 非合作媒體謝絕轉載
作者:Phillip Britt
原文網(wǎng)址:
https://www.speechtechmag.com/Articles/ReadArticle.aspx?ArticleID=145100