立即加入會員
取得專屬服務

獨漏「科技民主」的聯合國AI倫理建議書,該如何看待?|李崇僖專欄

獨漏「科技民主」的聯合國AI倫理建議書,該如何看待?|李崇僖專欄
聯合國教科文組織11月下旬通過《人工智慧倫理建議書》文件。圖片來源:Shutterstock
2021-12-10
文・李崇僖
6508
聯合國教科文組織(UNESCO)11月下旬召開第41屆大會,有193個會員國參加。會中通過數項重要決議,包括一份名為《人工智慧倫理建議書》(The Recommendation on The Ethics of Artificial Intelligence)的文件。該文件涵蓋諸多人工智慧倫理原則,是世界上第一份全球性組織通過的人工智慧倫理文件,意義不證自明。

近年來,許多區域性組織、學術研究機構、甚至商業公司(如谷歌、微軟等),都提出各自的人工智慧倫理原則文件。2020年一月,哈佛大學專研科技倫理議題的伯克曼網際網路與社會研究中心(Berkman Klein Center)調查顯示,當時,全球至少有36份重要的人工智慧倫理原則文件,內容各有特色,也有不少共識。

由於這些文件的發佈機構不如聯合國具全球地位,故此次聯合國教科文組織的《人工智慧倫理建議書》,可視為全球人工智慧倫理議題之集大成;從該文件長達26頁的篇幅、涵蓋七大項主題的規模,亦能一窺此意義。

若將《人工智慧倫理建議書》視為人工智慧倫理原則的集大成,是各方商討擬議之後燦然大備的成果,固然值得欣慰,但也將面臨另一層疑問:

人工智慧倫理工作的下一步該是什麼?如果倫理原則都已齊備而有共識,後續問題就是:這些倫理文件,真能影響人工智慧科技應用的走向嗎?

最不堪的結果可能是,這份集大成的文件,可能僅是人類在人工智慧倫理討論的最後努力、也是最無力的一聲吶喊。若由聯合國組織通過的文件尚無法對現實造成一點影響,那麼,後續還有討論人工智慧倫理的價值嗎?

這份文件究竟會成為「見證科技倫理論述的失敗」,抑或是「從倫理論述進展到規範建構的轉折點」,將是檢驗其歷史定位的重要判準。(延伸閱讀|人工智慧淪為極權操控生命的工具,你是忘記了,還是害怕想起來?

長達26頁,獨漏關於「科技民主」的論述

文件的歷史定位有待將來論定,現階段可先檢視此文件所標舉的倫理原則與自我定位,以預見其是否有規範建構的企圖,以及可能面臨的侷限。

《人工智慧倫理建議書》的英語版長達26頁,歸納了先前各方所倡議的人工智慧倫理原則條項,以「序言」「適用範圍」「宗旨目標」「價值觀與原則」「政策行動領域」「監測與評估」「本建議書的使用與推廣」等幾大項為基礎架構;其中尤以「價值觀與原則」「政策行動領域」為核心。

然而,檢視文件內容可發現,人工智慧倫理原則雖已有多方討論成果,多也收錄於此份文件中;但仍遺落一個重要面向——關於「科技民主」的論述。

科技民主原則才是人工智慧倫理的關鍵,有兩大原因:

  1. 本質上,人工智慧科技有助長專制政府進行極權統治的性質。極權統治需要相當大的統治成本,但人工智慧可讓極權政府以更少的成本,達到更徹底的社會控制,在中國就是典型的數位極權主義(digital authoritarianism)。若要檢驗人工智慧的倫理,必然要將該科技與政治運作的關係,列入考量。
  2. 人工智慧科技的應用能創造諸多社會利益(包括能源政策與氣候變遷也有賴人工智慧解決),但也恐帶來社會安全性的風險(包括對就業結構的衝擊,對人類自主性的威脅等)。

人工智慧-科技倫理-AI-極權政府-數位極權主義人工智慧可能助長中國等極權政府的控制力。圖片來源:Shutterstock

在利弊兼具的兩難困境中,唯有透過科技民主的程序正義與制度保障,才能追求最大利益且降低社會風險。

愈是民主法治健全、可問責性高的政治體制,就愈能確保社會多數人因人工智慧科技而受益,且照顧到因該科技而受損害與風險的群體。換言之,落實科技民主,才是實踐人工智慧倫理的基石。

然而,這份人工智慧倫理建議書,通篇未強調科技民主,反而一再出現秉持主權與內政原則的聯合國制度框架,正反映了聯合國架構下建構人工智慧倫理(或在所有科技倫理議題上)的結構性侷限。(延伸閱讀|良心會痛!近6成AI工程師承認:曾開發傷害社會的產品

聯合國不干預內政,削弱各國落實意願

聯合國自成立以來,其目的為維護世界和平,避免再發生世界大戰,故尊重各國主權自主,堅持不干預內政事務。固然,在國際人權法體系的發展下,「不干預內政原則」開始鬆動;但國際人權法的落實,仍受到主權國家自主原則的牽制。

在這份人工智慧倫理文件的序言中,再次看到「建議會員國根據本國的憲法規定與治理架構,採取適當步驟,包括必要的立法或其他措施,適用本建議書各條款」這樣的文字,就表明了聯合國無意將人工智慧倫理,提升到國際人權法的立場。

在此前提下,即便這份文件提出多項科技倫理原則(如隱私保護、不歧視原則等),缺乏將倫理原則發展成具體規範的意志,仍將大大削弱各國(尤其是專制或威權國家)積極落實的意願。

不僅如此,某些倫理原則,已成為專制國家政府干預市場、進行政治整肅的正當藉口。例如,「數位壟斷與個資濫用」是歐美社會近年嚴肅面對的科技倫理議題,而相關論述很容易傾向「以公權力介入市場機制,保護消費者權益」的立場。

此種市場懷疑論,恐賦予中國近期大舉整頓科技產業,甚至大行「國進民退」政策的正當基礎。換言之,當聯合國此份倫理文件仍謹守主權至上、不干預內政之原則,但又標舉各項科技倫理原則,其實踐結果,是否反成為專制政府的護身符?

縱有前述疑慮,聯合國教科文組織在此時提出人工智慧倫理文件,仍具有象徵意義——人工智慧的應用層面日漸廣泛,倫理原則不能流於空白或各說各話。

透過倫理文件的歸納整理,或許能開啟由下而上的倫理意識教育;尤其,科技倫理不可或缺的科技專業組織自律機制(如電機電子工程師學會IEEE或國際標準化組織ISO),將會有全球共通的倫理範本可資遵循。

如此一來,這份倫理文件亦可成為國際軟法(soft law)的基礎,也是對此份文件所能做的最樂觀期待。

在全球範圍上的科技民主絕非一蹴可及,科技倫理終要依靠點滴工程。在體認到聯合國體制侷限的同時,也不必太快否定這份文件促發下階段規範建構與科技民主化的可能。(延伸閱讀|罰10億!歐盟《人工智慧管理法草案》八類高風險技術,台灣業者別踩雷

其他人也在看

你可能有興趣

影音推薦

【2022.SDGs國際論壇 #2】中央、地方、產業 永續利害關係人如何協作?|永續議題分析與利害關係人協作

已成功複製連結