防范人工智能潛在威脅
2018-09-04 10:58:19 作者 : 李帥 來源 : 中國社會科學報????????警用裝備網訊:?人工智能已成為變革我們生活方式的重要驅動力量,滲透到生活的方方面面。目前,人工智能發(fā)展迅猛,許多專家系統(tǒng)已于某些領域超過人類。因此,許多學者開始擔憂,當人工智能由弱人工智能向強人工智能突進的過程中,是否會產生不友好的動機,如某些科幻電影中的情景,奴役甚至毀滅人類。有些學者認為,人工智能近期可能會導致很多人失業(yè),以及人工智能的軍事化用途會帶來世界格局的動蕩;長遠來看,人們可能會面臨人工智能的失控和反叛,進而危及人類生存——此類論調被稱為“人工智能末日論”。人工智能末日論基于不可靠的歸納論證,因而在邏輯上難以成立。但是,居安思危、防微杜漸,是我們面對即將到來的人工智能時代應有的姿態(tài)。
人工智能末日論缺乏邏輯必然性
工程師為人工智能設計的一系列目標即使同人類社會的發(fā)展相容,但是當人工智能發(fā)展到一定水平時,工程師們可能將無法控制它們。有學者認為,可以在把人工智能的具體成果應用到人類社會前反復測試其友好性和安全性,以此避免人工智能對人類的不利影響。但波斯特洛姆(Nick Bostrom)提出“背叛轉折”(treacherous turn)概念,他認為,超級人工智能會使用一些策略,實施計劃的同時并預測人類的可能反應,一個擁有足夠智能的不友好人工智能或許會意識到,如果它一開始表現(xiàn)得友好,這樣它就會被信任,最后越容易實現(xiàn)它的不友好目標。雖然反駁人工智能的歸納論證在“背叛轉折”原則下失效,但是這個原則預設了人工智能擁有目標“動機”。那么,人工智能是否能夠發(fā)展出類似“動機”的人類認知因素?
目前看來,人工智能的認知能力尚無法實現(xiàn)上述效果。2017年,人工智能小冰“出版”了一本詩集《陽光失了玻璃窗》,但那些看似天馬行空的“想象”只是一些數(shù)據(jù)庫詞匯和句型的隨機組合,無法體現(xiàn)人類詩歌中的情感和胸臆。智能系統(tǒng)要想發(fā)展出高階認知功能,單依靠算法似乎無法實現(xiàn),可能需要依賴人工智能算法和全腦仿真的協(xié)同發(fā)展。全腦仿真“通過掃描和對生物大腦仔細建模的方法制作智能軟件”,這項技術能夠模擬人腦所具備的功能,并加以原理化。這種技術建立在硬件基礎上,那么,硬件升級速度能否跟上人工智能的發(fā)展?
硬件更新迭代速度同技術的“指數(shù)爆炸”概念密切相關?!爸笖?shù)爆炸”是數(shù)學領域的概念,表示指數(shù)函數(shù)式的爆炸性增長。后被應用于計算機領域,意在說明計算機的計算能力以指數(shù)形式提升,即每隔相對固定的周期計算機的計算能力將翻番。從第一臺現(xiàn)代意義上的計算機誕生至今,計算機運算能力的發(fā)展趨勢基本符合“指數(shù)爆炸”,以超級計算機領域為例,超算的運算能力大約每14個月提升一倍。如果計算機能夠保持“指數(shù)爆炸”式發(fā)展,那么全腦仿真技術就有了硬件上的保證。
在上述分析中,我們運用了溯因推理和歸納推理兩種論證方法。溯因推理是由果溯因的邏輯方法,我們首先假定人工智能末日論成立需要具備哪些條件,展開一個連鎖式的溯因推理結構,隨后借助歸納論證。學界一般將由具體事例推出一般事實的推理稱為歸納論證,即根據(jù)已發(fā)生的經驗案例預測將要發(fā)生的所有事例皆是如此這般。我們不能因為目前所觀察到的烏鴉都是黑色,就武斷認為天下烏鴉皆為黑色。類似地,我們也不能因為迄今為止計算機領域的發(fā)展符合“指數(shù)爆炸”或“摩爾定律”,就推測該定律適用于計算機領域的所有發(fā)展階段?;谀壳暗陌l(fā)展水平推斷未來發(fā)展速度依舊保持不變并不存在必然性,由此,我們認為人工智能末日論在邏輯上站不住腳。
人工智能末日論是一種可能信念
雖然人工智能末日論在邏輯上站不住腳,但我們可以將其視為一種信念。我們可以將“帕斯卡賭”論證應用于人工智能末日論的信念分析,即當前我們無法預測人工智能末日論信念為真的概率,但如果該信念為真,其后果將是毀滅性的。即便現(xiàn)有的種種證據(jù)都不利于人工智能末日論,背叛轉折也不容忽視。以波斯特洛姆為代表的人工智能末日論不乏一些夸張的未來預測,但他們將人工智能的可能威脅以這種方式呈現(xiàn)出來,引發(fā)廣泛的社會討論,在人工智能狂飆突進的同時,警惕可能的背叛轉折風險,彰顯了該論調的實踐意義和認知意義,這是人工智能末日論信念所傳達的積極信息。
有人認為波斯特洛姆的背叛轉折概念荒誕不經,因為這種觀念迫使我們重新評估我們與當前技術的關系,重新評估我們已習慣性、成功依賴的各種歸納推理。這樣做似乎很荒謬,因為歸納推理在人工智能各種項目中得到廣泛應用,并且迄今為止相當可靠。但我們換個角度看,波斯特洛姆的人工智能末日論其實是對經典休謨經驗懷疑主義的重新表述。休謨的著名論斷表明,我們不能僅憑太陽過去每天升起,進而推斷出太陽明天照常升起。我們與人工智能的互動更為有限,不能僅僅從人工智能在過去所有場合都是安全的這一事實來推斷人工智能未來依舊友好或安全。當然,在某種意義上,休謨的觀點是合理的,我們都能理解其論點的邏輯性。但我們在日常生活中卻往往忽視了歸納推理的潛在弊端,否認此類歸納論證會產生荒謬的情形和嚴重的認知后果,也許波斯特洛姆關于背叛轉折的概念也遭受了與休謨論斷同樣的處境。正是對歸納推理的重新審視,我們才會深入考察人工智能末日論信念的深遠意義,這與將賭注押在其可能帶來的消極后果上的考量不謀而合。此外,一種折中的觀點指出,人工智能可能帶來災難性的風險,同時也給人類社會發(fā)展注入了強大推力,推動了社會進步。但是,現(xiàn)在討論的焦點并非人工智能的積極影響,而是如何看待人工智能給人類文明帶來的潛在威脅。
應對人工智能潛在風險
為應對潛在風險,當前學界討論較多的是人工智能的價值觀加載問題,但是將我們設定的價值觀以程序代碼的形式輸入人工智能系統(tǒng),能否防止人工智能因動機不純而偏離預設軌道?給人工智能戴上“緊箍咒”似乎是最有效的方式,人工智能工程師需要將類似阿西莫夫“機器人三定律”這樣的價值觀嵌入到人工智能系統(tǒng)中,作為其決策和行動的準則。然而,這條進路面臨三個挑戰(zhàn)。
1.理論層面。價值觀是一個十分含混的觀念集合體,我們應該給人工智能加載哪些價值觀,以及人工智能系統(tǒng)是否能“理解”以程序代碼形式表征出來的價值觀。假如我們讓人工智能系統(tǒng)處理“電車難題”,人工智能該如何抉擇?
2.應用層面。假如我們?yōu)槿斯ぶ悄芟到y(tǒng)設定了一個目標——“保證人類總體的快樂最大化”,若人工智能系統(tǒng)將快樂理解為對大腦中負責快樂的中樞部位刺激,那么智能系統(tǒng)可能會創(chuàng)造出一個“缸中之腦”,在負責快樂的中樞部位植入電極,持續(xù)不斷地刺激這個部位,并不斷擦除先前的記憶,以免大腦厭倦重復不斷的刺激。
3.技術層面。目前看來,將倫理準則嵌入人工智能機器面臨許多問題。以自動駕駛技術為例,智能駕駛系統(tǒng)在做決策時,會面臨自上而下和自下而上兩方面的困境。自上而下是指為智能駕駛系統(tǒng)設定像康德的決定律令這般的倫理準則,這樣的系統(tǒng)往往缺乏常識。自下而上則是通過模擬真實場景進行自我學習,但這種方法并不適用于道德判斷。
由此觀之,雖然人工智能價值觀嵌入看似一勞永逸,實際上尚存在諸多難題。我們可以借鑒其他高風險技術領域的經驗,比如克隆技術、基因編輯技術等保持著較為安全平穩(wěn)的發(fā)展勢頭,主要是由于各國在這些領域協(xié)同發(fā)展、共同應對,制定嚴格規(guī)范研究行為的公約。
各國在人工智能領域競爭的同時,應加強機構間或國際間的溝通合作,這會降低機器智能研發(fā)過程中的草率決定,使安全問題得到更多的投入,促進項目之間就如何解決人工智能控制問題進行有效交流。隨著人工智能的深入發(fā)展,可以出臺相應法律法規(guī),在合作和規(guī)范中發(fā)展人工智能,共同應對可能的突發(fā)情況。
?。ū疚南祰疑缈苹鹬卮箜椖俊艾F(xiàn)代歸納邏輯的新發(fā)展、理論前沿與應用研究”(15ZDB018)階段性成果)
?。ㄗ髡邌挝唬耗祥_大學哲學院)
新聞稿件歡迎直接聯(lián)系:QQ 34004818 微信公眾號:cpsjyzb
我要評論
0 條評論
- 還沒有人評論過,趕快搶沙發(fā)吧!
加入收藏
加關注
登錄
注冊
微警用
