此前,為了提升元宇宙中的觸感交互,Meta公司的研究團隊開發(fā)了一款觸覺手套,這種手套舒適、可定制,最重要的是能夠在虛擬世界中再現一系列感覺,包括紋理、壓力和振動等。
近日,Meta公司又有新動作。其發(fā)布了自監(jiān)督語音處理模型XLS-R,該模型共支持128種語言,目的是助力元宇宙中的跨語種交流。
當今,有據可考的語言有7000余種。盡管現在的翻譯系統(tǒng)越來越強大,但要用AI完全實現這些語言的互通并非易事。一般來說,語料庫的豐富程度決定了語言翻譯模型的質量,現有的語音翻譯一般集中于大語種之間,小語種語料往往比較匱乏,因此使用這類母語的人往往較難通過AI獲得較高的翻譯質量。
但XLS-R通過自監(jiān)督技術對10倍的語音數據進行訓練,大大改善了以前的多語言模型,尤其是小語種的處理。因此母語不同的人,比如一位說英語,一位說漢語的人,兩人可以靠XLS-R在元宇宙中進行無障礙對話。
XLS-R基于的是Facebook去年發(fā)布的wav2vec 2.0技術。該技術通過多層卷積神經網絡對語音音頻進行編碼,以及對產生的潛伏語音表征進行跨度遮蔽,能夠建立捕捉整個序列信息的表征。
這樣訓練出的模型,可以預測音頻中被掩蔽部分的正確語音單元,同時也可以學習新的語音單元。在此基礎上開發(fā)的XLS-R,不僅能夠建立上下文表征,還可以捕獲整個潛伏表征序列上建立的依賴關系。
XLS-R共有20億參數,它在測試的37種語言中,表現優(yōu)于大多數語種先前的工作。甚至在老撾語等小語種識別上,也能低于之前的錯誤率。此外,XLS-R也讓低資源語言與英語之間的翻譯大幅改進,例如從印度尼西亞語到英語的翻譯,準確性平均翻了一番。
目前,XLS-R還只是一個預訓練模型,為了能更好的應用于具體任務,還需要對其進行相關改進。