谷歌于5月在I/O上宣布了Euphonia項(xiàng)目:試圖使語(yǔ)音識(shí)別理解具有非標(biāo)準(zhǔn)語(yǔ)音或障礙的人。谷歌剛剛發(fā)布了一篇文章和一篇論文,解釋了其人工智能的一些功能。
對(duì)于那些有運(yùn)動(dòng)障礙的人,比如由肌萎縮側(cè)索硬化癥(ALS)等退化性疾病引起的人,他們的說(shuō)話聲音根本無(wú)法被現(xiàn)有的自然語(yǔ)言處理系統(tǒng)所理解。
ASR(自動(dòng)語(yǔ)音識(shí)別)系統(tǒng)通常是從“典型”語(yǔ)音中訓(xùn)練出來(lái)的,這意味著代表性不足的群體,比如那些有語(yǔ)音障礙或口音重的群體,不會(huì)體驗(yàn)到同樣程度的實(shí)用功能。
目前最先進(jìn)的ASR模型也會(huì)發(fā)生高錯(cuò)誤率,只有中度言語(yǔ)障礙的ALS,有效地阻止訪問ASR依賴的技術(shù)。
值得注意的是,他們至少在一定程度上要?dú)w咎于訓(xùn)練集。這是我們?cè)谌斯ぶ悄苣P椭邪l(fā)現(xiàn)的那些內(nèi)隱偏見之一,這些偏見可能會(huì)在其他地方導(dǎo)致高錯(cuò)誤率,比如面部識(shí)別。
對(duì)谷歌的研究人員來(lái)說(shuō),這些意味著他們要從ALS患者那里收集數(shù)十小時(shí)的語(yǔ)音。正如你可能預(yù)期的那樣,因?yàn)槊總(gè)人受自身狀況的影響都不一樣,所以適應(yīng)疾病的影響與適應(yīng),比如說(shuō),一種不尋常的口音,不是同一個(gè)過(guò)程。
用一個(gè)標(biāo)準(zhǔn)的語(yǔ)音識(shí)別模型作基準(zhǔn),然后以一些實(shí)驗(yàn)性的方式進(jìn)行調(diào)整,在新的音頻上進(jìn)行訓(xùn)練。僅這一點(diǎn)就大大降低了單詞錯(cuò)誤率,而且對(duì)原始模型的更改相對(duì)較小,這將意味著在調(diào)整到一個(gè)新的語(yǔ)音時(shí)不需要太多的計(jì)算。
研究人員發(fā)現(xiàn),當(dāng)這個(gè)模型仍然被一個(gè)給定的音素(即像“e”或“f”這樣的單個(gè)語(yǔ)音)所混淆時(shí),它有兩種錯(cuò)誤。首先,它不能識(shí)別圖上的因素,因此不能識(shí)別單詞。其次,模型必須猜測(cè)說(shuō)話者想要表達(dá)的音素,在兩個(gè)或兩個(gè)以上單詞發(fā)音大致相似的情況下,就有可能會(huì)選擇錯(cuò)誤的音素。
第二個(gè)錯(cuò)誤是智能處理的錯(cuò)誤。也許你說(shuō),“我要回到房子里去”,而系統(tǒng)卻不能識(shí)別出房子里的“b”和“h”。
但這要留給未來(lái)去研究。目前,你可以知道的是該團(tuán)隊(duì)發(fā)表的一篇名為“在有限的數(shù)據(jù)下,個(gè)性化語(yǔ)音障礙和重音語(yǔ)音的ASR”的論文,將于下月在奧地利舉行的Interspeech大會(huì)上發(fā)表。