圖為1968年影片《2001太空漫游》中的超級電腦哈兒(HAL),它眼睛里映出的是男主角戴維﹒鮑曼(Dave Bowman)。戴維想讓哈兒做的不過就是打開救生艙門。圖片來源:EVERETT COLLECTION
人工智能工程師現(xiàn)在面臨一個問題:他們常常不知道自己研發(fā)出來的那個玩意兒在想什么。
隨著人工智能日趨復(fù)雜和普及,它的影響力也越來越大。在判定誰該入獄,誰能獲得貸款方面,人工智能都已經(jīng)開始施展拳腳。有人建議,在一輛自動駕駛汽車發(fā)生不可避免的車禍時,應(yīng)由人工智能判斷哪個人的存活幾率最大。
初創(chuàng)企業(yè)現(xiàn)在無論做什么,都喜歡給自己貼上人工智能的標簽。蹭人工智能名頭的方式越來越狡猾,請務(wù)必謹慎定義。一般來說,人們普遍認為人工智能指的是模仿人類智慧和能力的科技。
人工智能領(lǐng)域中發(fā)展尤為神勇的一個分支是神經(jīng)網(wǎng)絡(luò),該系統(tǒng)可像人類那樣通過訓(xùn)練來“學(xué)習(xí)”,把學(xué)習(xí)經(jīng)驗轉(zhuǎn)變?yōu)槟M神經(jīng)元網(wǎng)絡(luò)。最終生成的不是代碼,而是晦澀難辨、紛亂復(fù)雜的數(shù)百萬、甚至數(shù)十億個人工神經(jīng)元。這也解釋了創(chuàng)造現(xiàn)代人工智能的科學(xué)家何以對人工智能完成任務(wù)的方式表示費解。
大多數(shù)研究人員一致認為,了解人工智能是一項迫在眉睫的挑戰(zhàn)。如果我們不理解人工智能的工作方式,那我們?nèi)绾未_定它是否帶有偏見,又如何預(yù)測它可能出現(xiàn)的錯誤?
隨著人工智能的日趨復(fù)雜和普及,它的影響力也越來越大。有人建議,在自動駕駛汽車發(fā)生不可避免的碰撞時,應(yīng)由人工智能判斷哪個司機的存活幾率最大。圖為處于自動駕駛模式的優(yōu)步車輛。知道人工智能什么時候會有意外之舉,這一點很重要。圖片來源:ERIC RISBERG/ASSOCIATED PRESS
人工智能會不會是種族主義者?它會不會有一些意想不到的“腦回路”,引發(fā)自動駕駛車輛失靈,造成車禍?這些我們都無法提前預(yù)知。只有在它做出了無數(shù)個決定后,我們才可能了解到它是否有偏見。知道人工智能何時會失靈,何時會有意外之舉,何時會告訴我們:“對不起,戴維,恐怕我辦不到”,這一點非常重要。
曾在圖片社交網(wǎng)站Pinterest Inc.研究機器學(xué)習(xí)的軟件工程師TracyChou說:“現(xiàn)在的一大問題是,人們以為人工智能或機器學(xué)習(xí)不帶偏見,十分中立。之所以有這個印象,很重要的一個原因是,大家沒有認識到,設(shè)計人工智能模式的是人,給它們選擇訓(xùn)練數(shù)據(jù)的也是人。”
谷歌翻譯(Google Translate)便是一例。比如,讓它將英文單詞“doctor”(醫(yī)生)譯成葡萄牙語,它給出的總是陽性名詞medico,而不是陰性名詞medica。讓它翻“nurse”(護士),它給出的則是陰性名詞enfermeira,而不是陽性名詞enfermeiro。
陰謀嗎?非也。用本身就帶有偏見的文學(xué)庫來訓(xùn)練翻譯系統(tǒng),后者自然一脈相承地也有了偏見。若研究人員刪除種族這個類別,數(shù)據(jù)一樣帶有偏見,因為還有其他與種族關(guān)系密切的數(shù)據(jù)(比如一個人在哪里生活),那些數(shù)據(jù)就成了種族的代名詞。
機器人畢竟不是人,我們不能直接問一個機器人,你為什么要做這件事?不錯,人工智能可以出色地完成一些片面任務(wù),而實際上,即便是那些會說話的機器人,其自我反思能力跟一只蟑螂差不了多少。
2017年1月,人工智能研究者、軟件工程師、DeepMind Technologies聯(lián)合創(chuàng)始人哈薩比斯(Demis Hassabis)在德國慕尼黑大會上講話。圖片來源:TOBIAS HASE/DPA/ZUMA PRESS
這是個很難攻克的課題,美國國防高等研究計劃署(Defense Advanced Research Projects Agency,簡稱:Darpa)正在為“可解釋人工智能”項目提供資金支持。
下面說說這個課題為何難以被攻克。在計算機科學(xué)領(lǐng)域,要想解決某個問題,有個好辦法是讓工程師編寫一個神經(jīng)網(wǎng)絡(luò)(相當(dāng)于原腦),然后給它灌輸海量數(shù)據(jù)來訓(xùn)練它。舉例來說,只要人工智能有足夠的時間去消化一堆貼有“貓”標簽的圖像,那它就可以挑出貓的照片。
難點在于,神經(jīng)網(wǎng)絡(luò)是通過內(nèi)在的“自我改造”完成學(xué)習(xí)任務(wù)的。人腦基本上也是這樣工作的。就像我們無法理解人腦中約860億個神經(jīng)元之間的相互連接一樣,人工智能“思考”的具體方式亦令我們費解。
工程師將上述情況稱為“可解釋性”問題(也就是尚無法解釋),把神經(jīng)網(wǎng)絡(luò)稱為“黑匣子”(我們可以模擬和觀察、但無法了解其內(nèi)部的東西。)
Alphabet Inc.子公司DeepMind Technologies Ltd.的研究人員宣布了一個探索機器心智的獨辟蹊徑之道:像對待孩子一樣對待機器。
也就是說,工程師對人工智能使用認知心理學(xué)技術(shù),這并不是比喻。參與這個項目的DeepMind的科學(xué)家巴雷特(David Barrett)說,為了梳理人工智能的所思所想,DeepMind團隊對人工智能用的測試題和材料與心理學(xué)家對兒童用的一模一樣。
巴雷特說,幾十年來通過認知科學(xué)解開人腦之謎的研究如今應(yīng)用到了機器上,有可能打開一扇認識人工智能的新大門,讓人工智能變得更易懂。
DeepMind的研究結(jié)果之一是讓我們知道了,至少有一種人工智能(用來認字的“一次性學(xué)習(xí)模式”,那些字只給它看一眼)用的是和人類一樣的解決問題的方式,真是令人吃驚。它也是通過形狀來識別物體,哪怕沒人教它這么做,哪怕識別隨機物體還可以通過顏色、質(zhì)地或動作等其他方式。以前它的學(xué)習(xí)方式不為人知。
理解只是我們與人工智能互動的第一步。機器人心理學(xué)的另一半可被形容為“心理治療”,也就是說,改變它的想法。
巴雷特說,工程師在創(chuàng)造人工智能時,為了找到最棒的那個,一般會做出很多版本,而使用認知心理學(xué)能讓工程師擁有更多“實權(quán)”,可以選擇那些按照人類希望的方式去“思考”的機器。又或許,人工智能的思考方式與我們不同,而且更好,這樣我們就可以學(xué)點解決問題的新辦法。
結(jié)果就是,當(dāng)我們用人工智能替代人類決策者時,人工智能有更上一層樓的潛力,變得更少出錯,更加可靠,因為人工智能的行為是可衡量的,我們或許可以精確追溯它們做決定的整個過程。
對于人類的行為,我們一直也是這么要求的(如在法庭上剖析一個商業(yè)決定),但眾所周知,人類是不可靠的敘述者。有了機器人后,我們終于迎來了剛正不阿的決策者,它們的所有偏見和一閃而過的沖動都可以被仔細審視和修正。