CTI論壇(ctiforum.com)(編譯/老秦): 公司越來越依賴于聯(lián)絡(luò)中心應(yīng)用程序、播客分析、遠(yuǎn)程醫(yī)療和其他應(yīng)用程序中的語音分析。
根據(jù) Research Reports World 的數(shù)據(jù),到 2030 年,語音分析市場預(yù)計將超過 42 億美元,復(fù)合年增長率為 21.2%。
根據(jù)報告和行業(yè)專家的說法,增長的驅(qū)動力包括不斷擴(kuò)大的外包行業(yè)、提高的可擴(kuò)展性、降低的成本,以及由于聯(lián)絡(luò)中心數(shù)量增加而需要提高座席生產(chǎn)力,僅舉幾例。
Verint 語音和文本分析全球產(chǎn)品戰(zhàn)略副總裁 Daniel Ziv 表示:"我們看到轉(zhuǎn)錄準(zhǔn)確性和可擴(kuò)展性方面有了真正的改進(jìn),越來越多的供應(yīng)商提供 API 來創(chuàng)建能夠以合理成本實現(xiàn)更高準(zhǔn)確性的基礎(chǔ)設(shè)施。"對于一些潛在用戶來說,成本仍然是一個問題。
"如果你沒有高準(zhǔn)確度,你就沒有具有成本效益的轉(zhuǎn)錄,"Ziv 補(bǔ)充道。"這是最基本的要求。這在過去一直是一個挑戰(zhàn),無論是在準(zhǔn)確性方面,還是在規(guī)模和成本方面。因此,業(yè)界大力推動轉(zhuǎn)錄更具成本效益和更準(zhǔn)確。"
年度回顧
CallMiner 的人工智能副總裁 Rick Britt 表示,這種推動來自不斷變化的供應(yīng)商。許多較小的供應(yīng)商進(jìn)入市場,提供非;镜恼Z音分析解決方案,專注于座席改進(jìn)和合規(guī)性,而不是為多種用途設(shè)計的更準(zhǔn)確的轉(zhuǎn)錄本。一旦這些較小的公司證明他們在這些領(lǐng)域的這些解決方案是有效的,他們可能會嘗試擴(kuò)展到其他領(lǐng)域。
較小的公司看到了市場上的機(jī)會,因為較大的參與者希望鞏固自己的地位。一些例子包括 Qualtrics 收購 Clarabridge,LiveVox 收購 SpeechIQ,以及 Medallia 收購 Voci。
較大的供應(yīng)商還提供聯(lián)絡(luò)中心績效的分析,用于各種用途,從座席改進(jìn)和合規(guī)性到產(chǎn)品、營銷和服務(wù)調(diào)整,僅舉幾例。
Ziv 指出,除了更準(zhǔn)確的文字記錄之外,語音分析用戶還需要知道如何處理腳本。例如,在大流行最嚴(yán)重的時期,銷售從店內(nèi)轉(zhuǎn)移到電話或在線。在醫(yī)療保健領(lǐng)域,出現(xiàn)了許多新的應(yīng)用程序來處理醫(yī)生的聽寫,從而提高他們的工作效率。
Britt說,語音分析提供商需要確保他們的技術(shù)不僅可以處理越來越多的聯(lián)絡(luò)中心交互,還可以處理不斷增長的交互來源,包括社交媒體、聊天、文本和電子郵件。
這些旅程促使公司分析來自不同渠道的不同交互,所有這些交互都來自處理類似主題的單個客戶。
Britt 指出,外包電子商務(wù)技術(shù)和服務(wù)公司 Radial 使用 CallMiner 對話分析平臺開發(fā)更好的"最后一英里"交付解決方案。 Radial 通過 CallMiner 進(jìn)行情緒分析,并將數(shù)據(jù)提供給最終客戶,后者與 Radial 合作改進(jìn)交付流程。
Radial 是一家規(guī)模龐大的公司,擁有 2,000 到 4,000 名座席,隨時工作,而語音分析已深入到許多較小的用戶,包括單個辦公室。
"很多人都有私人抄寫員,但這非常昂貴,"Ziv 說。"而一個人類抄寫員,不管他或她有多好,比你用自動化完成的速度要慢三倍。而且[人類]的準(zhǔn)確度會大大降低,尤其是在他們打字的時候。"
專家指出,隨著語音數(shù)據(jù)量的迅速增長以及公司檔案中已有的大量數(shù)據(jù),人工智能和機(jī)器學(xué)習(xí)將繼續(xù)推動最新的語音分析解決方案。
據(jù) Ziv 稱,有了更多數(shù)據(jù),語音分析解決方案變得更好。"轉(zhuǎn)錄變得更具預(yù)測性,因為你正在學(xué)習(xí)下一個單詞可能是什么。你不只是根據(jù)聲音來猜測,你是在使用上下文。語音引擎要準(zhǔn)確得多。"
此外,算法不斷變得更好,計算能力也在不斷增長,尤其是對于云中可擴(kuò)展解決方案的用戶而言,這些解決方案比本地解決方案具有更多的處理能力,Ziv 補(bǔ)充道。
AssemblyAI 首席執(zhí)行官 Dylan Fox 表示,除了利用機(jī)器學(xué)習(xí)、人工智能和先進(jìn)的計算機(jī)能力外,語音分析用戶正在轉(zhuǎn)向具有更高級分析能力的 API,以推動投資回報率并構(gòu)建創(chuàng)新產(chǎn)品。"我們將這些稱為'音頻智能'功能。我們看到公司實施的一些主要功能包括情緒分析、摘要、實體檢測、[個人身份信息]編輯和內(nèi)容審核。"
去年夏天,Verint 發(fā)布了 Da Vinci AI and Analytics,它使用先進(jìn)的機(jī)器學(xué)習(xí)模型、自然語言處理、意圖模型和情感模型,作為 Verint 客戶參與云平臺的一部分。該平臺使用擴(kuò)展的語言和聲學(xué)分析功能和人工智能驅(qū)動的機(jī)器人來理解所說的內(nèi)容、所說的方式以及相應(yīng)座席的操作和桌面活動。它旨在了解完整的交互上下文,以便在當(dāng)下提供有意義的幫助,以提高座席效率并減少處理時間。
與此同時,Verint 的實時座席助手在座席桌面上提供重要通知、知識和提醒,以指導(dǎo)座席采取下一個最佳行動并推動積極的互動結(jié)果。
在當(dāng)前的商業(yè)環(huán)境中,所有這些都變得越來越重要。
"雖然幾乎所有企業(yè)都知道客戶同理心的重要性,但大多數(shù)企業(yè)都難以始終如一地交付它,尤其是考慮到隨時隨地工作的聯(lián)絡(luò)中心環(huán)境,"Ziv 說。"我們最新的創(chuàng)新支持提供與客戶的情緒狀態(tài)和意圖相一致的卓越體驗,以實現(xiàn)更有影響力和更有意義的互動。"
據(jù) Ziv 稱,基礎(chǔ)技術(shù)的改進(jìn)已將聯(lián)絡(luò)中心中語音分析的大部分使用從通話后推向?qū)崟r。例如,Verint 的實時座席助手專注于使用語音分析來幫助聯(lián)絡(luò)中心座席改善客戶情緒;提高收款、付款或其他需要合法披露的電話的合規(guī)性;或改善銷售機(jī)會。
"系統(tǒng)正在尋找一些重點領(lǐng)域,"Ziv 解釋說。"如果它發(fā)現(xiàn)問題,它會指導(dǎo)座席或提醒主管。過去從未如此成功,因為處理這些數(shù)據(jù)的成本很高。如果它不在云端,你就必須擁有更多的硬件。"
Britt 表示,除了分析關(guān)鍵字的腳本外,情緒的語音分析在過去一年中變得越來越普遍。
展望未來
據(jù) Ziv 稱,除了改進(jìn)的基礎(chǔ)技術(shù)之外,不斷變化的市場動態(tài)增加了對語音分析的需求。"這更需要,因為遠(yuǎn)程工作環(huán)境已將座席放在家里。沒有任何同行,沒有任何主管,他們就沒有以前擁有的支持網(wǎng)絡(luò)。"
盡管隨著 COVID-19 限制開始放寬,該行業(yè)正在慢慢回到辦公室,但仍然需要幫助遠(yuǎn)程工作人員。 Zix 說,許多聯(lián)絡(luò)中心仍在以混合模式運營,很大一部分座席仍在遠(yuǎn)程工作。"如果你強(qiáng)迫人們?nèi)ツ硞地方,那就限制了你可以雇傭的人。如果你打開它,任何人都可以在任何地方工作,你就不會有時區(qū)問題,你可以去成本較低的地區(qū)。這就是外包開始的原因。"
Fox 表示,語音分析的高級功能也推動了該技術(shù)超越了常見的聯(lián)絡(luò)中心用例。
例如,通過播客和廣播媒體,公司可以使用該技術(shù)來識別聽眾對特定內(nèi)容的反應(yīng)趨勢。此外,廣告商可以使用情緒分析來幫助更好地確定哪些播客最適合贊助。
在遠(yuǎn)程醫(yī)療中,該技術(shù)可用于審核醫(yī)患對話,以確保取得積極成果或識別趨勢。
語音分析提供商預(yù)計,語音分析的基礎(chǔ)技術(shù)和用途將繼續(xù)增長,這證實了 Research Reports World 的預(yù)測。
Britt 補(bǔ)充說,語音分析將取得進(jìn)展,以提供對常見問題的更深入分析和微細(xì)分,例如包裹在特定地理位置總是遲到,以快速識別和解決即使是一小部分客戶面臨的問題。
"我們在這項技術(shù)的道路上走得很遠(yuǎn),我們可以非常、非?焖俚貏(chuàng)建解決方案,"Britt說。
專家們一致認(rèn)為,這些解決方案也變得更加強(qiáng)大和可擴(kuò)展。
聲明:版權(quán)所有 非合作媒體謝絕轉(zhuǎn)載
作者:Phillip Britt
原文網(wǎng)址:https://www.speechtechmag.com/Articles/Editorial/Features/The-2022-State-of-Speech-Analytics-151327.aspx