我突然意識到,Alexa給我女兒樹立了一個糟糕的榜樣——女性應(yīng)該卑順、忍受無禮的行為并待在家里,這讓我感到十分困擾。
四大家居人工智能(AI)助手——Alexa、蘋果(Apple)的Siri、谷歌(Google)的Google Assistant和微軟(Microsoft)的Cortana——默認(rèn)使用的全都是女聲。在最近一次抵制之前,它們設(shè)定的溫柔順從的人格也存在著過分的性別歧視。我女兒的經(jīng)歷引發(fā)了我對這種微妙的AI性別歧視的關(guān)注,我擔(dān)心情況會很快變得更糟。
全球最大的那些技術(shù)平臺今年推出的新服務(wù),將很快與消費(fèi)者之間進(jìn)行交流并形成標(biāo)準(zhǔn)。為了高效率地處理數(shù)百萬條信息,這些公司必須推出自己的AI助手。因此,助手機(jī)器人的類型很快就會增加到幾千種,并在網(wǎng)頁、應(yīng)用和社交網(wǎng)絡(luò)上與數(shù)十億用戶進(jìn)行交流。
隨著這種“交流型AI”的用途迅速增加,它隱含的性別歧視會在我們、包括我們孩子的世界中迅速發(fā)酵。微妙的暗示通過不斷重復(fù),會產(chǎn)生累加的效果,隨著時間的推移,形成一種病態(tài)的心理狀況。如今,它正在悄悄影響我們,因?yàn)槲覀兪褂弥謾C(jī)器人的時間還相對較短,可能每天只有幾分鐘。不過,隨著它們開始完全取代網(wǎng)頁和應(yīng)用,AI很快就會變得普遍許多。
如果我們不做出改變,編寫現(xiàn)有的性別歧視算法和腳本的這批人將會創(chuàng)造出下一代對話型AI,而它們的規(guī)模則會以指數(shù)形式增長。隨著對話型AI在全球推廣,那些讓AI系統(tǒng)把女性定位為廚娘和秘書,把男性定位為高管的工程師,將會把他們的偏見成倍放大。
一切的問題在于男性。如今的AI主要由白人男性工程師開發(fā),他們工作過于匆忙,無暇拷問自己的大男子主義或思考自己的工作可能帶來什么危害。我從1995年起擔(dān)任科技公司的首席執(zhí)行官,過去這20多年來,在網(wǎng)頁、搜索和社交革命中,這樣的情況我曾有所目睹。AI革命才起步不久,但全球卻有一半的人口已經(jīng)遭到了邊緣化。這真是我們的恥辱。
或者我應(yīng)該說,這又一次成為了我們的恥辱?萍冀绮粩喟l(fā)生著連環(huán)犯罪。收入排行前20的美國科技公司中,有18家的首席執(zhí)行官都是男性。Facebook、谷歌和微軟的工程師中只有五分之一是女性。而在AI領(lǐng)域,2017年業(yè)內(nèi)專家的重要年度會議——會議神經(jīng)信息處理系統(tǒng)大會(Neural Information Processing Systems,NIPS)上,83%的出席者是男性,同年NIPS論文的作者中則有90%是男性。(由于AI領(lǐng)域相對較新,我們還無法獲取有關(guān)性別多樣性的更宏觀的數(shù)據(jù)。)
如果女性無法參與,我們怎么能夠開發(fā)出持久且影響深遠(yuǎn)的AI技術(shù)?我們尚處于起步階段,但跡象卻已經(jīng)令人擔(dān)憂。放任下去,恐怕會產(chǎn)生災(zāi)難性的后果。
為了避免對話型AI引發(fā)的災(zāi)難,我們公司正在積極采取措施,糾正技術(shù)人員的男性偏見,其中一種重要的方式就是在開發(fā)助手機(jī)器人時與核心員工和編碼人員保持密切聯(lián)系。根據(jù)美國勞工部(LaborDepartment)的數(shù)據(jù),美國客戶服務(wù)代表中有65%是女性,這個團(tuán)隊的多樣性要優(yōu)于撰寫代碼的程序員,女性占比也遠(yuǎn)高于大型科技公司中女性程序員的平均水平。
研究AI的公司應(yīng)該努力平衡員工的性別,與女性領(lǐng)袖合作,減少男性的偏見,并主持由女性領(lǐng)頭的科研計劃。我們需要在研發(fā)助手機(jī)器人上提出一套最好的方案,并在整個行業(yè)內(nèi)推廣。
AI具有巨大的潛力,然而取得真正進(jìn)步所需的洞察力和包容性,我們尚未具備,無法讓該領(lǐng)域自己承擔(dān)責(zé)任。要抵御隱含偏見的重復(fù)和增強(qiáng),最好的方法就是保持團(tuán)隊性別的多樣性。做不到這一點(diǎn),AI很快就會孕育出科技界的下一個危機(jī)。
作者羅伯特·洛卡西奧是Live Person的創(chuàng)始人和首席執(zhí)行官。
譯者:嚴(yán)匡正