[美國趣味科學網(wǎng)站7月14日文章]題:我們應該害怕智能機器人嗎?
作為一名人工智能研究者,我經(jīng)常發(fā)現(xiàn)人們在擔心AI(即人工智能)將會給我們帶來什么。這些想法不足為奇:我們擔心有朝一日自已會被機器人控制,并且被監(jiān)禁起來。
但是,對我來說,我很難想象我屏幕上的無辜的虛擬生物如何會在未來變成怪物;蛟S我會像奧本海默在率先制造出首枚原子彈之后那樣哀嘆自已成為“世界的毀滅者”?
作為一名AL專家,我對人工智能有哪些恐懼呢?
對于未知的恐俱
電影導演斯坦利·庫布里克執(zhí)導的《2001太空漫游》里的“HAL9000”高智能電腦,就是一個因意外而失敗的系統(tǒng)案例。就許多復雜的系統(tǒng)而言,如泰坦尼克號、美國的航天飛機和切爾諾貝利核電站,工程師將許多不同的部件組合起來。設(shè)計者可能了解每個元件如何獨立工作,但是對于它們?nèi)绾喂餐\作缺乏足夠的認識。
結(jié)果是, 出現(xiàn)了一個永遠不可能被完全了解的系統(tǒng),并且可能以很多不能預知的方式發(fā)生故障。在每一場災難中——巨輪沉沒,航天飛機爆炸以及在亞洲和歐洲擴散放射性污染物—— 一系列相對較小的故障合力釀成一場嚴重的災難。
我可以看到我們?nèi)绾卧贏L研究中落入了同一個陷阱。我們閱讀認知科學的最新研究,然后將其轉(zhuǎn)化成一種算法,并將其添加到一個現(xiàn)有的系統(tǒng)中。我們在不了解智能和任知的情況下試圖設(shè)計AL。
但是,隨著AL的設(shè)計變得更復雜,計算機處理器的速度更快,它們的技能也將會提升。
這將令我們賦予其更多責任。我們知道“人非圣賢孰能無過”,所以我們很可能根本無法創(chuàng) 造出一個真正安全的系統(tǒng)。
對于濫用的恐懼
現(xiàn)在,我們正在一步步地進化這些機器,使之能夠完成簡單的導航任務(wù)、做出簡易的決策或是記住幾個二進制數(shù)字。但是,不久之后,我們希望能夠創(chuàng)造出人類水平的智能。
在這一過程中,我們將通過進化過程找到并消除錯誤和問題。一代接一代,這些機器對于出現(xiàn)在前幾代身上的錯誤會處理得越來越好。這增加了我們在仿真模擬中發(fā)現(xiàn)意外結(jié)果的機會,從而能夠在其進入現(xiàn)實世界之前消除這些隱患。
另一種更進一步的可能性,就是利用進化來影響人工智能系統(tǒng)的道德標準。信譽和利他主義,這些人類倫理和道德可能正是我們進化的結(jié)果——也是延續(xù)的要素。 我們可以設(shè)置虛擬環(huán)境,賦予那些展示出善良、誠實和同理心的機器進化優(yōu)勢。這可能是一種確保我們能夠研發(fā)出更多服從的仆人或是值得信賴的伙伴而非無情機器人殺手的方式。
盡管神經(jīng)進化可能會減少意外結(jié)果出現(xiàn)的可能性,但是并不能防止濫用?墒,那是一個道德問題,而非一個科學問題。
對于社會不公的恐懼
人們正在關(guān)注的一個重要領(lǐng)域是就業(yè)。機器人已經(jīng)在做諸如將汽車零件組裝到一起的體力工作。 不久以后,它們或許也將能夠完成我們曾經(jīng)認為是專屬于人類的認知任務(wù)。自駕車可能會取代出租車司機;無人駕駛飛機可能會取代飛行員。
病人可以從一個能夠即時訪問迄今為止收集到的所有醫(yī)學知識的專家系統(tǒng)里獲得檢查和診斷,并且由一個永不知疲倦的、擁有完美穩(wěn)定性的“手”的機器人實施手術(shù),而不必在急診室里尋求可能已經(jīng)過度疲勞的醫(yī)生的救助。法律咨詢可能來自于一個無所不知的法律數(shù)據(jù)庫;投資建議可能來自于一個市場預測系統(tǒng)。
或許有朝一日,所有的人類工作都將由機器完成。即使是我自已的工作也可能會得到更快完成——由大量機器孜孜不倦地研究如何制造更智能的機器人。
在我們當前的社會,自動化推動人們失業(yè),令擁有機器的人更富有,而其他人則更貧窮。這不是一個科學問題;這是一個社會必須解決的政治和社會經(jīng)濟學問題。我的研究不會改變這一點,盡管我的政治自我——和其他人類一起——或許能夠令人類廣泛受益,而不是徒增我們中那百分之一與其他人之間的差距。
還有一個終極恐懼,那就是由“HAL9000”、“終結(jié)者”和其他虛構(gòu)的超級智能生物所呈現(xiàn)的:如果AL不斷發(fā)展,直至超越人類知慧,會不會有一個超級智能系統(tǒng)(或是多個)發(fā)現(xiàn)其不再需要人類?面對一個能夠做人類永遠做不到的事情的超級智能機器,我們將如何證明我們存在的價值?
我覺得很難為我們所有人提出一個具有說服力的論點。當我犀利地把我們所有人當成一個整體看的時侯,我發(fā)現(xiàn)存在著很多錯誤:我們彼此仇恨,我們相互發(fā)動戰(zhàn)爭,我們沒有平等地分配食物、知識和醫(yī)療救助,我們污染地球。世界上存在著很多的美好,但是所有的惡都削弱了我們被允許存在的論點。
幸運的是,我們還有一點時間 ——在50年到250年之間,這取決于AL的發(fā)展速度。我們可以聯(lián)合起來,探討出一個關(guān)于超級智能為什么不應當消滅我們的好答案。但是,這將是非常艱難的:說我們擁抱多樣性和真的這樣做是兩件截然不同的事 ——說我們想要拯救地球和成功地這樣做也是如此。
無論是個人還是社會,我們所有人都需要為那個噩夢般的場景做好準備,利用僅存的時間來證明為什么我們的創(chuàng)造物應該允許我們繼續(xù)存在。或者,我們可以決定相信這永遠不會 發(fā)生,大家都不必再擔心。但是,無論超級智能可能對我們構(gòu)成何種人身威脅,它們同時也會構(gòu)成政治和經(jīng)濟威脅。如果我們找不到一種方式來更好地分配我們的財富,那么我們將會加劇資本主義,令人工智能勞動力僅服務(wù)于極少數(shù)占有著所有生產(chǎn)資料的人。