最近,中國及美國分別發生兩件與人工智慧有關的倫理爭議。
微軟與中國軍方合作 引道德爭議
發生在中國的事件,與美國的微軟有關。該公司近年與中國的國防科技大學合作,共同開發兩項重要技術,一是利用人臉辨識重建地圖上的詳細資訊,另一個是機器閱讀自然語言。
去年,兩單位共同發表了數篇相關論文。爭議之處在於,這兩項技術分別可用於監控人民與網路言論,而合作對象明顯為軍事單位。任何人都會認為,微軟是在幫中國政府開發可加強監控人民的技術。
對此,歐美學術界對微軟提出不少道德上的質疑。質疑的並非技術本身,而是合作對象是中國軍方,恐使該研究強化極權統治。
【繼續閱讀】最嚴個資法GDPR後又一新科技規範!沒約束力,歐盟為何還要推「人工智慧倫理準則」?
谷歌倫理委員會 成立一週即遭解散
另一事件則發生在美國。
去年此時,谷歌曾因參與美國國防部的軍事技術項目(以影像辨識協助無人機進行目標攻擊),備受內部工程師批評。在數千名員工連署,只得宣布退出此計畫。
為宣示重視人工智慧的倫理議題,谷歌組成一個倫理委員會;而為使該委員會具備多元性,成員立場涵蓋自由派和保守派。
然而,其中一位成員是無人機開發公司的代表,被外界質疑有參與軍事開發項目;而另一位成員則因對多元性別及氣候變遷議題立場保守,而遭批評。
由於爭議迅速蔓延,谷歌決定解散倫理委員會。這個短命的委員會只活了一個多星期,而谷歌也沒有組成新倫理委員會的計畫。
為保持成員的多元背景卻意外引發爭議,谷歌鐵定始料未及;這也凸顯了倫理議題之棘手,連谷歌這樣一家勢力龐大的公司,都無法善了。
【繼續閱讀】李友專專欄︱付不起的醫療未來,人工智慧如何支持我們健康老去?
技術重於倫理?恐遭國內外抵制
就在這兩件爭議事件背景下,歐盟的「可靠的人工智慧之倫理準則」正式登場了。該準則開宗明義指出,人工智慧的可靠性在於兩個層面:一是目的符合倫理性(尊重人權、民主價值),二是技術具有健全性(避免偏頗、安全漏洞)。
該準則同時提出可用來檢驗人工智慧倫理的七項要素,分別是:
一、人為可監督性與維持人類自主性
二、技術強大性與安全性,可抵擋攻擊
三、尊重民眾隱私並可受檢驗
四、透明性與可追蹤性
五、尊重多元與不歧視性
六、能促進社會福祉與環境永續發展
七、倫理影響的可問責性
這七項要素的內涵相當豐富,本文暫不申論。但若詳讀這份由專家群討論後的共識文件,可發現已相當全面地考量應如何兼顧科技發展與社會價值。尤其是歐盟所標榜的「歐洲價值」(European Values),更經常在這份文件中被提及。
然而,當中國與美國全力發展人工智慧技術與應用之際,已經落後的歐盟,還提出自我約束的倫理準則,乍看是否顯得猶豫不決及不合時宜?
但先前提到的兩項爭議正足以說明,人工智慧發展,已經到了無法迴避倫理爭議的關口。若仍將技術與產業發展視為最高目標,把倫理原則當成絆腳石,則勢必將遭國內或國際社會抵制。
【繼續閱讀】人機互動,人工智慧的下一個新領域
AI技術不易壟斷 後發仍可先至
歐盟將技術發展放在倫理準則的指導下進行,固然會拖慢技術發展與應用;但換個角度想,卻可能使歐盟在人工智慧發展上具有「後發優勢」(late-mover advantage)。
過去,「後發優勢」的討論,多集中在東亞工業國家的科技產業經驗。觀察先行者的策略再加以模仿進而與之競爭,可避免昂貴且犯錯的研發成本;而在人工智慧領域,後發優勢更多了一層倫理面的考量。
由於人工智慧應用有許多不確定的倫理風險,作為技術後進國家,可以更審慎地去選擇、採納或發展符合於本身社會價值觀與實際需求的技術。最重要的,是先理解社會的價值理念,以及社會期待技術能帶來何種效益。
本質上,人工智慧技術不容易用專利權加以壟斷,且技術學習擴散的效應明顯;因此有專家認為,後發優勢應該是存在的。
當歐盟標舉「歐洲價值」作為人工智慧發展的倫理框架時,台灣是否該暫時放下對中國人工智慧蓬勃發展的欣羨,先自問:「台灣價值」的具體內涵是什麼?如此,才可能更適切地發展對我國社會有益的人工智慧。