城市圖書館|人不可殺人,那人工智慧可以嗎?萬一錯殺,該工程師負責嗎?

城市圖書館|人不可殺人,那人工智慧可以嗎?萬一錯殺,該工程師負責嗎?
2019-04-24
文・費維克・華德瓦、亞歷克斯・沙基佛(取自《科技選擇》)
7379
人類心理與情緒都有脆弱的一面,在廝殺慘烈的戰場上,就算最習慣征戰的軍人,也難保不會一時精神錯亂。如果能用程式控制機器人,避免這些弱點,是不是更道德?在與恐怖分子交手時,與其依賴有情緒的軍人,依賴冷血機器戰士會不會更好?

今天與過去的科技轉型有一項重大差異,就是今天的科技進化腳步太快,現有規範、法律與政治架構根本來不及吸收與反應。

美國的法律與道德慣例是經過幾世紀演變而來的結果。今天,科技以指數曲線飛速成長,影響每一個人、每一個角落。過去耗費幾百年才能完成的大規模變化,現在不出幾十年、有時短短幾年就出現了。

你必須介入的道理就在這裏。只有透過集體力量累積群智,才能幫我們的國會議員訂定引領改變的好政策。了解事情癥結所在、探討解決辦法的途徑很多。我在這裏提出三個問題,你可以用它們判斷哪些科技將改變我們的人生。

三個可以問的問題

我去年在墨西哥奇瓦瓦州(Chihuahua)蒙特雷科技大學(Tecnológico de Monterrey)一個創新研討會任教時,曾經問研討會學員:「讓醫生改變孩子的DNA,讓孩子跑得更快、記憶力更強,合不合乎道德?」全班學員都說這樣不道德。

於是我又問:「如果醫生改變一個孩子的DNA,為的是根除一種將致那個孩子於死地的疾病,行不行呢?」班上大多數學員說,如果這樣會是一件好事。事實上,即便用意不同,這二個案例是同一回事。

【繼續閱讀】:「基因編輯嬰兒」引震驚,未來醫療把人類變超人還是異形?

我所以舉這個例子,在於強調一件事:先進科技往往既能幫我們做我們心目中的好事,又能做我們認定不道德的壞事。我們必須判斷它為善的潛能,是否超過它造惡的潛能:這是我們面對的挑戰。經過與好友和專家不斷討論與思考,我訂出一套透鏡,或濾網,以便我們在評估新科技對社會與人類的價值時進行觀察。

歸根究柢,這套觀察工具是三個與公平、風險與自主有關的問題:

一,這些科技有沒有公平造福每個人的潛能?
二,它有什麼風險與報酬?
三,這些科技更能促成我們自主,還是造成我們依賴?

在衡量新科技的得失利弊時,應該方方面面考慮周全,以上三個問題當然不能整體涵蓋。但就像坐進一輛自駕車(無須多久,我們的車都將成為自駕車)的駕駛人一樣,想從氾濫的數據中脫穎而出,看清情勢,我們就得限制、簡化納入考量的資訊,做出決定、塑造我們的看法。

為什麼是這三個問題?

就像我在蒙特雷科技大學的那些學員一樣,大多數人都認為運用基因編輯科技、根除遺傳惡疾是一件好事。但改變人的基因,讓人更聰明、長得更漂亮、體力更強呢?如果成本差不多,為什麼只做一項改善,而不一舉完成多項改善?我們不會知道界線應該畫在哪裏,而且風險會呈指數型迅速增加。

因為這畢竟是新科技,我們不知道它的副作用與長期後果。萬一我們搞砸,造出怪物,萬一我們把身為人類必備的不完美刪除了,又將如何?

然後談到自主。我們當然不希望新科技有一天變得像娛樂性藥物一樣,讓我們沉溺、依賴。我們要更大的自主權,我們要根據自己的願望過日子,實現我們的潛能。

這三個問題相互糾結。不會有黑白分明,只有似是而非、似非而是的灰。我們大家都必須了解這些議題,提出我們的看法。

可以讓機器人殺人嗎?

一個更具爭議性、對人類衝擊更加大得多的議題也已經惹起熱議。這項辯論的焦點是,我們能不能讓人工智慧驅動的機器人自主殺人。

2015年七月,兩萬多人聯署一分公開信,呼籲通過全球性的禁令,禁止使用致命的自主殺戮機器。這些聯署人中有一千人是人工智慧研究人員與技術專家,其中包括伊隆.馬斯克、史蒂芬.霍金、與史蒂夫.沃茲尼克(Steve Wozniak)。

他們的邏輯很簡單:一旦展開研發能夠自主殺戮的軍用機器人科技,也會像所有其他科技一樣,循著同一成本與能力曲線發展;在不久的將來,人工智慧殺戮機器會成為商品,每一個獨裁者、民兵團體、與恐怖組織只需花錢,都可以買得到。此外,當然,專制(甚至剛愎自用的民主)政府也能用這些機器控制人民,迫使人民就範。

除了少數軍界人士以外,這是幾乎每個人都同意的觀點。甚至是機器人科技最死忠信徒的雷.庫茲威爾(Ray Kurzweil),也堅決反對透過程式研發,讓機器人在未經人類控制人同意的情況下自行殺人。他認為,研發這樣的程式違背道德。

還有一些批判人,例如「開放機器人」(Open Roboethics)計畫創辦人文愛姜(AJung Moon,譯音)就擔心,縱容這樣的科技會讓我們陷入一種機器人肆無忌憚、不聽使喚的世界。

此外,就像DeepMind在圍棋棋盤上展現的那樣,機器人的智慧一旦達到某一程度,至少在它們精通的規則與環境範圍內,難保不會有自己的主見。

支持研發自主殺人機器的軍界人士說,用機器人上戰場遠比派遣人類上戰場更加道德。經過程式調控、不會攻擊婦女與兒童的機器人,在戰場壓力下不會精神崩潰。他們認為,如果當時由機器人領軍,不會發生美萊村屠殺事件(Mai Lai,按:美軍於越戰期間在越南廣義省美萊村屠殺數百村民)。

更何況,他們還說,程式邏輯有一種了不起的能力,能將核心道德議題剖析為二元式決定。舉例說,為挽救校車上所有學童的性命,機器人可以在一秒內做出決定,犧牲那位打瞌睡的駕駛。

【繼續閱讀】:機器人想毀滅世界?達賴喇嘛弟子在MIT開課談「AI道德倫理」

這些論點都很有趣,而且也並非全無道理。

人類心理與情緒都有脆弱的一面,在廝殺慘烈的戰場上,就算最習慣征戰的軍人,也難保不會一時精神錯亂。

如果能用程式控制機器人,避免這些弱點,是不是更道德?在難以判斷對手是否遵循任何道德律的情況下(例如與伊斯蘭國〔ISIS〕恐怖分子交手時),與其依賴有情緒的軍人,依賴冷血機器戰士會不會更好?如果一個恐怖組織成功研發擁有戰場優勢的殺人機器人,又當如何?我們願不願意冒險,研發這種機器戰士?

對於這類問題,我的看法似乎有些玩世不恭:我不認為民眾真有那麼關心應不應該讓機器人殺人的問題,因為這種觀念似乎太過抽象。對於是否應該讓無人機裝備自主殺人凶器的問題,美國民眾一直興趣缺缺。

事實上,甚至用機器人在美國境內殺人的問題,也沒有引起美國民眾注意。達拉斯(Dallas)警方用機器人帶了一枚炸彈,炸死涉嫌在抗議集會中殺害七名員警的米卡.布朗(Micah Brown)。

沒有人對警方這種做法提出質疑。第一次使用自主機器人在戰場上殺人的事件,應該只會出現在距離美國很遙遠的地方,就像無人機第一次殺人的戰場遠在阿富汗與巴基斯坦一樣。

「開放機器人」計畫主張全面禁止研發自主殺人機器人,這項主張獲得幾乎所有民權組織與許多政界人士響應。這個議題會在今後幾年持續發酵。值得注意的,不僅是聯合國這類世界級治理機構會作成什麼最後決定,美國軍方是否願意針對這個問題簽署一項國際協定也讓我們關切。(在軍事科技領域擁有明顯全球優勢的美國,一直不肯簽署限制軍事科技的條約。)

機器人帶來的好處是否超過風險?

現在我們得談到近在眼前的問題了。機器人帶來的好處超過它的風險嗎?如果超過,我們該如何降低風險?

就目前而論,全面阻止機器人進入社會與人世的嘗試已經失敗。谷歌自駕車(替我們駕車的機器人)已經出現,看來也阻止不了。具備自動駕駛能力的特斯拉電動車,已經在我們的公路上走了好幾百萬英里。隨著人工智慧機器人不斷進步,新能力免不了一定會帶來我們始料未及的事物。

最極端的風險是世界末日:機器人變得比我們還聰明,於是接管世界,讓人類在自己的星球上任由機器宰割。

另一個同樣惱人、雖說沒那麼攸關生死存亡、但更加現實的風險是,機器人會不斷搶走我們的飯碗。麻省理工學院(Massachusetts Institute of Technology,MIT)的艾利克.布里喬森(Erik Brynjolfsson)與安德魯.麥卡菲(Andrew McAfee)等研究人員就認為,機器人遲早會奪走我們愈來愈多的重要工作。

牛津大學(Oxford University)研究員卡爾.班尼迪.傅瑞(Carl Benedikt Frey)與麥克.奧斯本(Michael A. Osborne)在2013年九月發表研究報告,斷言人工智慧會讓美國47%的現有就業機會「有風險」,在美國造成軒然大波。

這篇名為〈就業未來〉(The Future of Employment)的報告,針對科技創新對勞工市場與就業的影響,進行了嚴謹而詳細的評估。

麥肯錫公司也在不久前的一篇研究報告中指出,「運用現有科技,僅有約5%的職業可以全面自動化。不過,今天的科技可以將人類支薪在各行各業進行的各項活動的45%自動化。更有甚者,約占六成的所有各行各業,可以將三成以上的業務活動自動化。」

報告中並起說,僅僅具備自動化能力並不表示自動化比較划算。只要聘請時薪10美元的廚子比購置動力機器的漢堡製作機器人划算,速食業就業機會不會因自動化受損。

但想走回完全不用機器人的極端,已經不切實際。老齡化人口的巨型泡沫將壓得大多數已開發世界、以及中國等許多開發中國家喘不過氣。自駕車將在今後幾十年拯救千百萬條人命。更機靈、更聰明的機器人將取代人類,接掌開礦、救火、搜救、高樓與通信塔檢修等等高危險度的工作。

仔細回想起來,情況似乎是,只要機器人搶不走我們最獨特的本領,只要它們不比我們聰明太多,我們希望用機器人做一切我們不擅長的工作。或許這是一件好事。

從表面上看,機器人護工或許是一種無情的選項,但比起根本不照顧,或者讓孩子承受嚴峻財務壓力,反而是一種關愛。將這個立論進一步衍生:機器人以及機器人帶來的經濟利益或許會奪走我們的工作,但同時也能為我們人類帶來很多餘暇,讓我們可以做我們最想做的事。

依我看來,問題關鍵在於如何讓人能夠了解機器人,讓人能夠制止機器人,以免它們太超過。谷歌正考慮在它的人工智慧系統建立關閉開關(kill-switches)。

其他研究人員正研發工具,以監控利用深度學習(Deep Learning)系統建立、原本無法監控的機器算程。也因此,我們必須取得肯定答案的問題是,我們能不能制止機器人。包括人工智慧與機器人,我們在設計所有一切系統時,必須牢記這項關鍵,即使這麼做可能有損這類系統與機器人的能力與「突現性」(emergent properties,按:即一加一可能大於二的特性)也在所不惜。 

機器人能夠使人類利益均霑嗎?

在一般用途機器人問世以後,這項科技能讓社會大眾利益均霑嗎?答案是不能,因為有錢人可以最先得到最新、最好的機器人,一定比窮人獲利更多。

比較一下我們在美國使用的智慧型手機,與一般在印度與中國境內使用的智慧型手機,就知道其間差距了。我們使用的智慧型手機往往售價超過600美元,印度與中國境內使用的經常只有40美元。我們的手機有最快的處理器、最長效的電池、顯示幕品質也最好。就特性與功能而言,他們的手機比我們的落後兩到三年。

不過,坦白說,我倒認為這不是問題,因為這其實是富人為科技進步而付費,是富人在貼補窮人。馬斯克經營特斯拉運用的也是同一套策略:他推出Roadster與Model S鎖定豪華車市場,要我這樣的人出錢幫他推動科技,開發比較平價的Model 3。

如前文所述,在考慮社會公平議題時,令人憂心的是機器人在就業方面造成的顛覆。除非我們推出安全網、再培訓方案、與社會結構,以因應富足與無就業時代,機器人帶來的顛覆會造成嚴重後果。

在未來的社會新秩序中,我們的身分地位不僅取決於我們做的工作,還要看我們有多少貢獻(或許這一部分比前者更重要)而定,我們必須幫助其他人調適這樣的社會。

此外,政府無論怎麼做也無法阻止自動化,因為自動化是經濟成長之鑰。科技必然為就業帶來巨大衝擊,我們無法粉飾太平;除了做好因應準備以外,我們別無其他選擇。我們需要了解科技走向,了解它的衝擊,為可能遭到最大負面衝擊的人提供保護。

【繼續閱讀】:杜奕瑾x蘇菲亞:訓練機器人比訓練真人難很多!

這些科技更能促成我們自主,還是造成我們依賴?

 我們會不會依賴我們的機器人?就若干程度而言,我們已經在依賴許多原始機器人了:我們的汽車、電梯、洗碗機、事實上,一切電器用品都是原始型態的機器人。我們當然可以選擇不用它們,但是那樣的日子並不好過。

老實說,我覺得它們不僅是連了電線的器材而已;沒了智慧型手機與網際網路會讓我感到迷失。既如此,我們依賴為我們服務、成為我們朋友的機器人,與我們依賴電器又有什麼不一樣?


書名:《科技選擇—如何善用新科技提升人類,而不是淘汰人類?》
作者:費維克・華德瓦(Vivek Wadhwa)、亞歷克斯・沙基佛(Alex Salkever)
譯者:譚天
出版:經濟新潮社
出版時間:2018/11

延伸閱讀

杜奕瑾x蘇菲亞:訓練機器人比訓練真人難很多!機器人想毀滅世界?達賴喇嘛弟子在MIT開課談「AI道德倫理」「基因編輯嬰兒」引震驚,未來醫療把人類變超人還是異形?

其他人也在看

你可能有興趣

影音推薦

#廣編企劃|【2023 天下城市高峰論壇 #9】新竹市交通處長 倪茂榮:改善交通,必須先做出優良示範道路|天下雜誌✕未來城市

已成功複製連結