今天與過去的科技轉型有一項重大差異,就是今天的科技進化腳步太快,現有規範、法律與政治架構根本來不及吸收與反應。
美國的法律與道德慣例是經過幾世紀演變而來的結果。今天,科技以指數曲線飛速成長,影響每一個人、每一個角落。過去耗費幾百年才能完成的大規模變化,現在不出幾十年、有時短短幾年就出現了。
你必須介入的道理就在這裏。只有透過集體力量累積群智,才能幫我們的國會議員訂定引領改變的好政策。了解事情癥結所在、探討解決辦法的途徑很多。我在這裏提出三個問題,你可以用它們判斷哪些科技將改變我們的人生。
三個可以問的問題
我去年在墨西哥奇瓦瓦州(Chihuahua)蒙特雷科技大學(Tecnológico de Monterrey)一個創新研討會任教時,曾經問研討會學員:「讓醫生改變孩子的DNA,讓孩子跑得更快、記憶力更強,合不合乎道德?」全班學員都說這樣不道德。
於是我又問:「如果醫生改變一個孩子的DNA,為的是根除一種將致那個孩子於死地的疾病,行不行呢?」班上大多數學員說,如果這樣會是一件好事。事實上,即便用意不同,這二個案例是同一回事。
【繼續閱讀】:「基因編輯嬰兒」引震驚,未來醫療把人類變超人還是異形?
我所以舉這個例子,在於強調一件事:先進科技往往既能幫我們做我們心目中的好事,又能做我們認定不道德的壞事。我們必須判斷它為善的潛能,是否超過它造惡的潛能:這是我們面對的挑戰。經過與好友和專家不斷討論與思考,我訂出一套透鏡,或濾網,以便我們在評估新科技對社會與人類的價值時進行觀察。
歸根究柢,這套觀察工具是三個與公平、風險與自主有關的問題:
一,這些科技有沒有公平造福每個人的潛能?
二,它有什麼風險與報酬?
三,這些科技更能促成我們自主,還是造成我們依賴?
在衡量新科技的得失利弊時,應該方方面面考慮周全,以上三個問題當然不能整體涵蓋。但就像坐進一輛自駕車(無須多久,我們的車都將成為自駕車)的駕駛人一樣,想從氾濫的數據中脫穎而出,看清情勢,我們就得限制、簡化納入考量的資訊,做出決定、塑造我們的看法。
為什麼是這三個問題?
就像我在蒙特雷科技大學的那些學員一樣,大多數人都認為運用基因編輯科技、根除遺傳惡疾是一件好事。但改變人的基因,讓人更聰明、長得更漂亮、體力更強呢?如果成本差不多,為什麼只做一項改善,而不一舉完成多項改善?我們不會知道界線應該畫在哪裏,而且風險會呈指數型迅速增加。
因為這畢竟是新科技,我們不知道它的副作用與長期後果。萬一我們搞砸,造出怪物,萬一我們把身為人類必備的不完美刪除了,又將如何?
然後談到自主。我們當然不希望新科技有一天變得像娛樂性藥物一樣,讓我們沉溺、依賴。我們要更大的自主權,我們要根據自己的願望過日子,實現我們的潛能。
這三個問題相互糾結。不會有黑白分明,只有似是而非、似非而是的灰。我們大家都必須了解這些議題,提出我們的看法。
可以讓機器人殺人嗎?
一個更具爭議性、對人類衝擊更加大得多的議題也已經惹起熱議。這項辯論的焦點是,我們能不能讓人工智慧驅動的機器人自主殺人。
2015年七月,兩萬多人聯署一分公開信,呼籲通過全球性的禁令,禁止使用致命的自主殺戮機器。這些聯署人中有一千人是人工智慧研究人員與技術專家,其中包括伊隆.馬斯克、史蒂芬.霍金、與史蒂夫.沃茲尼克(Steve Wozniak)。
他們的邏輯很簡單:一旦展開研發能夠自主殺戮的軍用機器人科技,也會像所有其他科技一樣,循著同一成本與能力曲線發展;在不久的將來,人工智慧殺戮機器會成為商品,每一個獨裁者、民兵團體、與恐怖組織只需花錢,都可以買得到。此外,當然,專制(甚至剛愎自用的民主)政府也能用這些機器控制人民,迫使人民就範。
除了少數軍界人士以外,這是幾乎每個人都同意的觀點。甚至是機器人科技最死忠信徒的雷.庫茲威爾(Ray Kurzweil),也堅決反對透過程式研發,讓機器人在未經人類控制人同意的情況下自行殺人。他認為,研發這樣的程式違背道德。
還有一些批判人,例如「開放機器人」(Open Roboethics)計畫創辦人文愛姜(AJung Moon,譯音)就擔心,縱容這樣的科技會讓我們陷入一種機器人肆無忌憚、不聽使喚的世界。
此外,就像DeepMind在圍棋棋盤上展現的那樣,機器人的智慧一旦達到某一程度,至少在它們精通的規則與環境範圍內,難保不會有自己的主見。
支持研發自主殺人機器的軍界人士說,用機器人上戰場遠比派遣人類上戰場更加道德。經過程式調控、不會攻擊婦女與兒童的機器人,在戰場壓力下不會精神崩潰。他們認為,如果當時由機器人領軍,不會發生美萊村屠殺事件(Mai Lai,按:美軍於越戰期間在越南廣義省美萊村屠殺數百村民)。
更何況,他們還說,程式邏輯有一種了不起的能力,能將核心道德議題剖析為二元式決定。舉例說,為挽救校車上所有學童的性命,機器人可以在一秒內做出決定,犧牲那位打瞌睡的駕駛。
【繼續閱讀】:機器人想毀滅世界?達賴喇嘛弟子在MIT開課談「AI道德倫理」
這些論點都很有趣,而且也並非全無道理。
人類心理與情緒都有脆弱的一面,在廝殺慘烈的戰場上,就算最習慣征戰的軍人,也難保不會一時精神錯亂。
如果能用程式控制機器人,避免這些弱點,是不是更道德?在難以判斷對手是否遵循任何道德律的情況下(例如與伊斯蘭國〔ISIS〕恐怖分子交手時),與其依賴有情緒的軍人,依賴冷血機器戰士會不會更好?如果一個恐怖組織成功研發擁有戰場優勢的殺人機器人,又當如何?我們願不願意冒險,研發這種機器戰士?
對於這類問題,我的看法似乎有些玩世不恭:我不認為民眾真有那麼關心應不應該讓機器人殺人的問題,因為這種觀念似乎太過抽象。對於是否應該讓無人機裝備自主殺人凶器的問題,美國民眾一直興趣缺缺。
事實上,甚至用機器人在美國境內殺人的問題,也沒有引起美國民眾注意。達拉斯(Dallas)警方用機器人帶了一枚炸彈,炸死涉嫌在抗議集會中殺害七名員警的米卡.布朗(Micah Brown)。
沒有人對警方這種做法提出質疑。第一次使用自主機器人在戰場上殺人的事件,應該只會出現在距離美國很遙遠的地方,就像無人機第一次殺人的戰場遠在阿富汗與巴基斯坦一樣。
「開放機器人」計畫主張全面禁止研發自主殺人機器人,這項主張獲得幾乎所有民權組織與許多政界人士響應。這個議題會在今後幾年持續發酵。值得注意的,不僅是聯合國這類世界級治理機構會作成什麼最後決定,美國軍方是否願意針對這個問題簽署一項國際協定也讓我們關切。(在軍事科技領域擁有明顯全球優勢的美國,一直不肯簽署限制軍事科技的條約。)
機器人帶來的好處是否超過風險?
現在我們得談到近在眼前的問題了。機器人帶來的好處超過它的風險嗎?如果超過,我們該如何降低風險?
就目前而論,全面阻止機器人進入社會與人世的嘗試已經失敗。谷歌自駕車(替我們駕車的機器人)已經出現,看來也阻止不了。具備自動駕駛能力的特斯拉電動車,已經在我們的公路上走了好幾百萬英里。隨著人工智慧機器人不斷進步,新能力免不了一定會帶來我們始料未及的事物。
最極端的風險是世界末日:機器人變得比我們還聰明,於是接管世界,讓人類在自己的星球上任由機器宰割。
另一個同樣惱人、雖說沒那麼攸關生死存亡、但更加現實的風險是,機器人會不斷搶走我們的飯碗。麻省理工學院(Massachusetts Institute of Technology,MIT)的艾利克.布里喬森(Erik Brynjolfsson)與安德魯.麥卡菲(Andrew McAfee)等研究人員就認為,機器人遲早會奪走我們愈來愈多的重要工作。
牛津大學(Oxford University)研究員卡爾.班尼迪.傅瑞(Carl Benedikt Frey)與麥克.奧斯本(Michael A. Osborne)在2013年九月發表研究報告,斷言人工智慧會讓美國47%的現有就業機會「有風險」,在美國造成軒然大波。
這篇名為〈就業未來〉(The Future of Employment)的報告,針對科技創新對勞工市場與就業的影響,進行了嚴謹而詳細的評估。
麥肯錫公司也在不久前的一篇研究報告中指出,「運用現有科技,僅有約5%的職業可以全面自動化。不過,今天的科技可以將人類支薪在各行各業進行的各項活動的45%自動化。更有甚者,約占六成的所有各行各業,可以將三成以上的業務活動自動化。」
報告中並起說,僅僅具備自動化能力並不表示自動化比較划算。只要聘請時薪10美元的廚子比購置動力機器的漢堡製作機器人划算,速食業就業機會不會因自動化受損。
但想走回完全不用機器人的極端,已經不切實際。老齡化人口的巨型泡沫將壓得大多數已開發世界、以及中國等許多開發中國家喘不過氣。自駕車將在今後幾十年拯救千百萬條人命。更機靈、更聰明的機器人將取代人類,接掌開礦、救火、搜救、高樓與通信塔檢修等等高危險度的工作。
仔細回想起來,情況似乎是,只要機器人搶不走我們最獨特的本領,只要它們不比我們聰明太多,我們希望用機器人做一切我們不擅長的工作。或許這是一件好事。
從表面上看,機器人護工或許是一種無情的選項,但比起根本不照顧,或者讓孩子承受嚴峻財務壓力,反而是一種關愛。將這個立論進一步衍生:機器人以及機器人帶來的經濟利益或許會奪走我們的工作,但同時也能為我們人類帶來很多餘暇,讓我們可以做我們最想做的事。
依我看來,問題關鍵在於如何讓人能夠了解機器人,讓人能夠制止機器人,以免它們太超過。谷歌正考慮在它的人工智慧系統建立關閉開關(kill-switches)。
其他研究人員正研發工具,以監控利用深度學習(Deep Learning)系統建立、原本無法監控的機器算程。也因此,我們必須取得肯定答案的問題是,我們能不能制止機器人。包括人工智慧與機器人,我們在設計所有一切系統時,必須牢記這項關鍵,即使這麼做可能有損這類系統與機器人的能力與「突現性」(emergent properties,按:即一加一可能大於二的特性)也在所不惜。
機器人能夠使人類利益均霑嗎?
在一般用途機器人問世以後,這項科技能讓社會大眾利益均霑嗎?答案是不能,因為有錢人可以最先得到最新、最好的機器人,一定比窮人獲利更多。
比較一下我們在美國使用的智慧型手機,與一般在印度與中國境內使用的智慧型手機,就知道其間差距了。我們使用的智慧型手機往往售價超過600美元,印度與中國境內使用的經常只有40美元。我們的手機有最快的處理器、最長效的電池、顯示幕品質也最好。就特性與功能而言,他們的手機比我們的落後兩到三年。
不過,坦白說,我倒認為這不是問題,因為這其實是富人為科技進步而付費,是富人在貼補窮人。馬斯克經營特斯拉運用的也是同一套策略:他推出Roadster與Model S鎖定豪華車市場,要我這樣的人出錢幫他推動科技,開發比較平價的Model 3。
如前文所述,在考慮社會公平議題時,令人憂心的是機器人在就業方面造成的顛覆。除非我們推出安全網、再培訓方案、與社會結構,以因應富足與無就業時代,機器人帶來的顛覆會造成嚴重後果。
在未來的社會新秩序中,我們的身分地位不僅取決於我們做的工作,還要看我們有多少貢獻(或許這一部分比前者更重要)而定,我們必須幫助其他人調適這樣的社會。
此外,政府無論怎麼做也無法阻止自動化,因為自動化是經濟成長之鑰。科技必然為就業帶來巨大衝擊,我們無法粉飾太平;除了做好因應準備以外,我們別無其他選擇。我們需要了解科技走向,了解它的衝擊,為可能遭到最大負面衝擊的人提供保護。
【繼續閱讀】:杜奕瑾x蘇菲亞:訓練機器人比訓練真人難很多!
這些科技更能促成我們自主,還是造成我們依賴?
我們會不會依賴我們的機器人?就若干程度而言,我們已經在依賴許多原始機器人了:我們的汽車、電梯、洗碗機、事實上,一切電器用品都是原始型態的機器人。我們當然可以選擇不用它們,但是那樣的日子並不好過。