機器人想毀滅世界?達賴喇嘛弟子在MIT開課談「AI道德倫理」

機器人想毀滅世界?達賴喇嘛弟子在MIT開課談「AI道德倫理」
集物理、哲學、宗教背景於一身的達賴弟子丹增.普亞達西(Tenzin Priyadarshi)強調,若AI使用是建構在有偏見的演算法、數據上,將會是大災難。圖片來源:Unsplash
2018-03-18
天下雜誌編輯部
12052
在Youtube上搜尋機器人說出要毀滅人類,會出現不少影片,你感到害怕嗎?誰來定義AI道不道德?3年前,一襲紅衣袈裟的他,加入MIT媒體實驗室,啟動科技道德專案。這位4年多前,就預言臉書將遭反噬的仁波切,為何加入頂尖科技研究室?他又如何思考科技與道德的疆界?

全球宗教領袖達賴喇嘛,與美國頂尖科技研究所——MIT麻省理工學院媒體實驗室,有什麼交集呢?

這不是腦筋急轉彎,而是真有其人。一位集物理、哲學、宗教背景於一身的達賴弟子,丹增.普亞達西(Tenzin Priyadarshi)。

達賴弟子丹增.普亞達西(Tenzin Priyadarshi)強調,若AI使用是建構在有偏見的演算法、數據上,將會是大災難。圖片來源:黃亦筠

不到40歲的普亞達西,原本就是2009年成立MIT達賴喇嘛倫理與價值觀研究中心主任,在正統教授知識技能的校園,推動「價值觀領導力」。

「從小學到大學,學校教育只重視技能,完全沒有強調價值觀的重要,這是政界、商界持續貪腐的理由,」他認為。

2015年,MIT媒體實驗室主持人伊藤穰一登門拜訪,邀請普亞達西參與他與LinkedIn創辦人霍夫曼合組的AI基金,並且主持一項全新專案,探索科技與道德。

普亞達西一襲紅衣袈裟、紅鞋的身影,開始出現在各大AI實驗室、甚至坎城廣告獎會場,與科學家、廣告人思辯,如何因應以人工智慧為首的科技,引發的道德挑戰。

一言難盡的人生

與普亞達西約在以新潮設計著稱的信義區飯店採訪,也是他落腳居住的地方。問他不覺得吵?「不會啊!嫌吵的人,一定沒去過MIT大學部教室,」這位10歲起,在廟裡住了7年的出家人,回應令人會心一笑。

仁波切跨界科技,一如普亞達西的人生般,一言難盡。

出身在印度婆羅門教家庭,普亞達西的父親是印度所得稅局局長,在種姓制度嚴明的印度社會,屬於上流階層。於《袈裟背後:藏傳佛教僧侶的科學思想》一書中,說到自己的皈依過程。

雖然一開始信奉印度教,6歲起,他就會看到一些影像與夢境。隨著夢境愈來愈頻繁,10歲那一年,他從寄宿學校出走。當時,他口袋裡只有5塊美元,搭車到了當年釋迦牟尼佛弘法的王舍城,找到夢裡的寺廟,決定修習佛教。

跟其餘出家人不同,普亞達西的父親雖然同意他出家學佛,但條件是不能放棄學校教育。於是從10歲開始,他每天早上4點起床,打坐、早課念完,8點就得背著書包去上學。學校3點下課,他得趕回廟裡,開始做晚課,晚課做完,還得寫學校作業,常常10點多才能上床睡覺。

最後,他在達賴喇嘛門下,受戒剃度。但因為這樣的雙軌教育,他也對數學、物理、電腦感到興趣。17歲,他決定到美國雪城大學唸現代物理,他的同學很多去了華爾街做金融工程。他轉學到哈佛念哲學。同時間,也完成印度佛教大學學位。2001年畢業,他落腳MIT,成為麻省理工學院第一位佛教導師。

問普亞達西什麼是目前AI領域,最普遍的倫理問題?

「太多了,」他說。大從國家層次,現行的法規能不能有效治理使用AI;企業採用AI,勞工失業的社會成本,誰來負責;運用AI造成的公平競爭問題等等。

從道德哲學層次,「演算法是不是問了一個對的、不帶偏見的問題?什麼樣的演算法是『對』的?」他舉例。

(Photo Credit : Unsplash)

什麼樣的演算法是對的?

普亞達西認為,AI靠程式,一旦問錯了命題,程式就會寫入偏見。所以工程師必須經過一定的訓練,意識到自己的程式碼,會讓人產生偏見。更有甚者,工程師可以有自覺地,研發新科技來解決偏見問題。

譬如MIT媒體實驗室正在研發的「鏡頭」(lense)。MIT研發中的鏡頭,會針對同一組數據,用不同的視角去分析,有如照相機、顯微鏡換鏡頭一下。這個工具希望透過移動視角,能解決固定視角產生的偏見。

除了程式本身,普亞達西分析,偏見的另一個來源是數據。AI需要大數據訓練,但數據可能是帶著偏見蒐集來的,因為數據不乾淨,結果就有偏見。如果用有偏見的數據訓練AI,在用結果來做決策,就可能是大災難。

他舉例,運用AI的確可以很快得出一個結論:某個地區、某種特質的人容易犯罪。問題是,AI的結論是靠著數據累積訓練出來的,機器學習常常用的是20年累積的數據。但如果該區域這一、兩年做了社區重建,已經有了很大的改變,這些最新的變化,不見得會被機器讀到。用舊數據替特定區域的人貼標籤,就是一種偏見。

「中國現在用AI來抓犯人,用得不好,就可能是大災難,」他提醒。

該用AI抓犯人嗎?

「大家必須有共通社會規範,社會會一直演化、變動,沒有任何結論是固定不會改變的,」普亞達西提醒。

使用AI的人,尤其是律師、檢察官、調查官不能光靠電腦的計算就做結論,甚至改變一個人的人生。「專業人士不能說,這不是我的錯,這是AI算出來的,不是我的責任,」他說。

反之,專業人士必須依舊遵守道德標準,要認知道電腦依據的是過去的資料,所有的事都是可能改變的。尤其是會影響人一生的決定(如:假釋與否),專業者不能放棄自己做調查、分析,如此,偏誤的影響才會比較溫和,可以保護我們的社會。

不同於部份宗教界人士反對使用科技。普亞達西認為,現在才想讓時光倒流,已經太遲了。科技時代的道德倫理,不是斷然地說,什麼能做,什麼不能做。比較建設性的做法是,在發展科技時,能將追求人類福祉的目標擺入,讓道德成為科技運用的最適疆界(ethics as optimization)。

他認為,在大數據的時代,廣告公司可以蒐集人所有的行為,比每個人都更了解自己,業者的關鍵問題早已不是「科技做不做得到」,而是「科技該用在哪裡」。

讓倫理決定科技的最適疆界

舉例來說,演算法根據過去的瀏覽與購買紀錄,不斷推薦藍色喀什米爾毛衣給消費者,最多只會讓人每天都穿一樣顏色的衣服而已。但如果是個酒癮者,我們還該縱容演算法,不斷推播威士忌、伏特加酒的廣告,鼓勵消費嗎?

「如果要以人類福祉作成本,去創造商品銷售,就不是該做的事,」他曾在坎城廣告節,對全球頂尖廣告從業人員說。

運用科技謀利,不該以人類福祉做成本,也要考慮對社會的影響。普亞達西在MIT大學部開的課是「同理心」。他認為,缺乏同理心是當代社會嚴重的公衛疾病。

4年多前,他開始呼籲,臉書的演算法,會使同理心缺乏的問題更加嚴重。

普亞達西強調,臉書的創造者應該不是刻意要讓用戶活在同溫層裡,但科技演算法讓事情自然而然變得如此。因為臉書的演算法是根據自己興趣聚合,不考慮公眾與社會的需求,訊息迭加的結果,偏激的聲音就會彼此加強。

社群軟體改變人類與社會、世界連結的方式,吸收資訊的方法。「假新聞只是真實問題的一種症狀,」他分析,要解決假新聞的問題,臉書的演算法必須從社會道德的層面加入一些參數,打破純粹靠同溫層來理解社會、吸收資訊。

(本文轉載自《天下雜誌》,授權《未來城市@天下》刊登。未經同意請勿轉載。)


【延伸閱讀】

考100分還是會被AI輕易取代 如何追求「新聰明」?
人工智慧啟動 白領族開始失業
不只取代你的工作,AI人工智慧將加大不平等
一位父親給兒子的三個人生建議:人工智慧來了,你的未來在哪裡?
AI的四種未來,你會在哪裡?

延伸閱讀

AI出手 避免6000件未成年者性交易悲劇智慧攝影機也能算人頭 計算來客數不再耗時耗力中國AI最貴獨角獸商湯:二選一,你要給保安或AI監視?

其他人也在看

你可能有興趣

影音推薦

#廣編企劃|【2023 天下城市高峰論壇 #9】新竹市交通處長 倪茂榮:改善交通,必須先做出優良示範道路|天下雜誌✕未來城市

已成功複製連結