哈佛法學教授雷席格:我們正處於AI的「奧本海默時刻」,好壞永遠並存【完整全文】

哈佛法學教授雷席格:我們正處於AI的「奧本海默時刻」,好壞永遠並存【完整全文】
勞倫斯・雷席格提醒,人類在享受AI所帶來的便利時,也需當心受其掌控。圖片來源:台灣人工智慧學校
2023-09-20
整理・許靜之
24924
生成式AI蓬勃發展與廣泛應用,關於倫理、隱私與安全的討論也伴隨而來。如何平衡AI科技帶來的福祉與衝擊?哈佛大學法學院教授勞倫斯・雷席格(Lawrence Lessig)出席2023台灣人工智慧年會時,以「AI與法律」為題發表主張,並指現在正是AI的「奧本海默時刻」。

勞倫斯・雷席格(Lawrence Lessig)小檔案

  • 創用CC(Creative Commons)創始人
  • 哈佛大學法學院教授,曾任芝加哥大學法學院教授、史丹佛大學法學院教授並創設網路與社會中心
  • 曾獲The New Yorker評為網路世代最重要的智財思想家、威比獎(Webby Awards)、科學美國人50獎、Fastcase50獎等

以下是勞倫斯・雷席格的演講精華:

今天我想探討兩項觀點:AI對法律的影響,以及法律對AI的作用。這兩個問題有兩種不同的答案,一個充滿希望、甚至激勵人心,另一個則可能令人恐懼。

不過,就如同過去所有的科技,AI具有兩面性(Janus-faced),我們必須選擇讓科技的哪一面朝向我們。

Mythology-Janus-AI-台灣人工智慧年會-Janus-faced-Lawrence Lessig-人工智慧-生成式AI-AI應用雅努斯(Janus)是羅馬神話的「天門神」,兩張面孔分別展望過去與未來。圖片來源:陳芳毓攝

那麼,AI對法律可能有哪些影響呢?

我認為,每個人都有屬於自己的「AI時刻」(AI moments)。有一次,有人傳來一首AI為我寫的詩。我的AI時刻,就在閱讀這首詩時誕生了!我意識到,這世界上沒有人能針對我的工作寫出如此微妙適切的觀點,更沒有人以這樣的方式讀過我的所有著作。

這更讓我發現,在法律領域,AI具有我們尚未掌握的潛力。

AI能大量閱讀,這是相當難得的潛能。多數法律學者只能處理閱讀過的內容,或學會假裝自己已經閱讀過。畢竟寫作工作繁重,誰還有時間閱讀呢?

我最後一次到美國最高法院辯論,是在COVID-19疫情爆發之初,那是一件關於總統選舉人權力的憲法案件。當天我穿著牛仔褲,坐在辦公室裡,透過ZOOM遠端辯論。答辯書提及1950年代著名的Ray v.s. Blair一案,並在此案上建構論點;但令我震驚的是,有法官根本沒有認真讀完答辯書與案例。

在美國,法律糟透了。在美國,法律很慢、很昂貴、不可及,而且不可靠。法治系統就像是黃金築起的道路,人們必須花費高額代價,才可能接近正義的終點。

在這樣的背景下,我想強調,AI對於實現正義有著巨大的潛力。

AI對法律能做什麼?

當我在思考這項論點時,覺得似曾相識。1999年我在撰寫第一本書《網路自由與法律》(Code and Other Laws of Cyberspace)時,對於網際網路的未來也感到相當矛盾。

概念上來說,我是一個樂觀主義者,可以想像未來的網路世界欣欣向榮;實際上,我是一個悲觀主義者。我認為可能將出現破壞性力量,改變網路空間的發展。

Web3:程式碼即法律,但並非唯一的法律

AI可以改善法治系統,但這不會自動發生。老實說,對於人類能否引導科技走往好的方向,我沒什麼信心。好的情況會是什麼樣子呢?在大型語言模型出現之前,我就已經提出法律在未來網路時代之下的樂觀構想。

這要從Web3開始談起,不過這在今天來說相當危險,因為許多人都認為Web3是一場騙局。我曾到Reddit上詢問,該如何向五歲小孩解釋Web3;但我得到的答案卻是「Web3是一種組織犯罪洗錢的術語」「這是加密貨幣愛好者創造的行銷術語」以及「沒有誠實的生意人會說自己在做Web3」。

這令人非常沮喪。我可以理解,Web3技術因被應用在加密貨幣交易,而存在一些形象問題,但我們應該將Web3視為基礎建設,這是用於實現智慧合約(smart contracts)的重要基礎設施。

Web3是程式碼(code),能更好地處理私法、公法、契約以及各種協議。在書中,我將此論述稱為「程式碼即法律」(code is law)。

許多加密貨幣愛好者喜歡這項論述,因為他們認為如果程式碼即法律,那麼程式碼所做的一切都是被允許的。

而當第一個去中心化組織(DAO)出現時,吸引約1.5億美元的投資,有加密貨幣愛好者發現漏洞後,就從該基金中挪用6,000萬美元(約新台幣19.21億元)。許多人認為,程式碼有漏洞,如果「程式碼即法律」,那麼駭客的行為就是合法的。

這使得程式碼似乎讓偷竊成為可能。但是,程式碼即法律,並不代表程式碼就是唯一的法律。還得有另一個法律在程式後面,告訴你不能偷別人的錢。

另一個問題是,對大多數人來說,程式碼是一部機器,因此人類似乎被排除在「程式碼即法律」的論述之外。

Web3-AI-台灣人工智慧年會-Janus-faced-Lawrence Lessig-人工智慧-生成式AI-AI應用-程式碼-LLM-勞倫斯・雷席格強調,「程式碼即法律」不代表程式碼就是唯一的法律。圖片來源:台灣人工智慧學校

我認為這正是AI的機會。也許在不久的將來,AI就能作為Web3和法律之間的介面,提供人們理解技術的機會,也讓Web3更可能作為法治系統的基礎設施。

要進一步的說明是,法律就是一部大型語言模型(LLM)。原則上,大型語言模型比司法系統更能把事情做好;因為它可以閱讀一切,能保有寫作品質,還能更準確地判斷一般法律案件。

AI做出的判斷比司法系統更好,而且效率高、成本低,我們只需要保留上訴程序,讓人們在機器出錯時能出手。

我們曾經認為,核能、電力的價格可能會非常便宜,甚至接近免費;同樣地,我們也應該夢想一個「正義」太便宜,以至於不必計費的世界,並在全球法治系統內實現這樣的基礎設施。

AI法治的五大原則與可能威脅

因此我認為,AI與Web3的組合,比起現有法治系統更有效率,可及性也更高。但這種好事不會自動實現,應該明確制定原則,引導AI作為法治基礎設施的運作。

第一,保持公共性。無論透過許可證、補助津貼或授權,都必須保障法律AI技術部分的公共性。另一方面,應該將專有技術視為商品,以促進競爭與創新。

第二,具備可解釋性。AI可以被科學家檢測是否存在偏見、錯誤和不公正,並且不受提供者的限制。

第三,保護因為AI犯錯而受害的人。錯誤的成本由AI系統承擔,訴訟、法律費用甚至時間成本都必須得到補償。

第四,人類始終掌握最高權力。「AI失控」不能構成藉口,當AI出錯時仍須由人類負責。

第五,拒絕被著作權所壓制。許多人認為,AI模型訓練使用了受版權保護的資料,並且稱之為侵權與盜版。

這是完全錯誤的。我們必須牢記,藝術家們並未從極端的版權制度中受益。沒有藝術家會對Spotify說太棒了。大型公司吸收藝術家生產的大多數價值,卻只給予極少的回報,可見極端的版權制度對於創作者不一定有幫助。

若AI使用資料可以免於版權,是否代表我們應該考慮設計特殊的補償機制?當然,我不反對找到賠償創作者的方式,但我不認為應該要靠粗糙的著作權機制。

我的觀點是,如果能落實這五項原則,AI將會相當優秀。但人們能接受這些原則嗎?作為實際的悲觀主義者,我對未來抱持著懷疑,眼前就有不少現實的威脅。

Web3-Creative Commons-Lawrence Lessig-人工智慧年會-人工智慧-AI-生成式AI勞倫斯・雷席格指出,AI雖能夠提升司法系統的效率,卻也不可忽視其帶來的威脅。圖片來源:陳芳毓攝

威脅一,美國律師協會已經開始攻擊使用AI降低法律成本的做法。DoNotPay執行長約書亞・布羅德(Joshua Browder)嘗試開發AI律師,協助人們處理交通罰單,美國律師協會卻祭出威脅與報復,試圖阻止AI應用。關鍵在於,人們如果都請AI來幫忙,將會導致律師們一無所獲。

威脅二,科技倫理學者崔斯坦・哈里斯(Tristan Harris)曾說,人們早就在社群媒體上,與AI建立過第一次接觸。AI在社群媒體可能成為仇恨政治的推手,導致不尋常的悲慘事件發生。

2021年一月六日的國會大廈暴動事件,造成一名警察殉職,如果說是Facebook造成這起悲劇也不過分,因為Facebook幫助這群人構建了現實。這些人誠心相信民主被偷走了,站起來試圖改變現狀,但他們錯了。因為AI演算法推送不實訊息到他們眼前,才點燃了他們的熱情參與。

AI並不充滿仇恨,祖克柏也不恨美國,相反地,祖克柏愛著美國。這很重要,因為是不同的愛——企業對於獲利的熱愛,讓他們選擇使用這種方式來推動AI,但是這種愛正在摧毀美國的民主。

所以當人們問我,如果AI接管世界怎麼辦?我會說,AI早就已經接管了。背後沒有陰謀,只是AI與這套商業模式在美國造成了邪惡的結果。

威脅三,《時代雜誌》(TIME)曾刊登一篇文章,呼籲暫停AI科技發展,並指出當AI大幅超越人類智慧後,最有可能的後過,就是地球上每個人都將死去。這不是未來的問題,而是當下的問題。大企業聲稱能控制AI,但我們發現,實際上是AI在控制公司。

2017年,Facebook內部建立「猶太仇恨者」這項廣告受眾分類,因為AI判斷有利可圖,並向這些猶太仇恨者出售廣告。遭到非營利組織ProPublica揭露後,Facebook僅回應,此分類標籤由AI創建,並非人類。

人類還沒學會如何馴服AI,這並不是技術問題,而是治理問題。(延伸閱讀|歐盟草擬新法 規範生成式AI工具須揭露版權素材

法律能對AI做什麼?

來到第二個問題,法律能對AI做些什麼?首先,我們必須先知道,也許法律對AI無能為力。

過去十年來,Google等公司在美國投入大量資源進行訴訟與研究,主張〈憲法第一修正案〉保護言論自由的原則,應同樣適用於演算法。演算法是某種形式上的言論。就像《紐約時報》(New York Times)如何調整報紙版面,也是編輯的選擇,假如試圖監管編輯的選擇,就明顯違憲;在此觀點下,監管演算法也是違憲的。

AI不應受憲法言論自由保障

這是目前美國國內非常強而有力的法律論點,但這不應該是這樣。我們應該將AI視為人類的複製品(replicant),如同《銀翼殺手》(Blade Runner)描述的那樣——人工智慧由人類所創造,但已經超出了人類所能控制的範圍。

當Facebook演算法分出「猶太仇恨者」這個標籤時,這並不能代表祖克伯的想法,而是人工智慧,這是人類的複製品。因此,我認為AI發表的言論不應受到憲法保障。

一個有趣的案例是,一位在美國合法居住的非美國公民,可以出資支持或反對參政的候選人嗎?法院的答案是不行。

大法官指出,美國最高法院已經劃定一條公平明確的界線,政府可以排除外國公民參與民主自治活動。因為外國公民不符合「民主自治」的前提,不屬於美國的一部分,因此法律不能保障外國公民以捐款方式表達言論自由。

重點在於,如果連在華盛頓特區合法居住的真人,都不算是「我們」的一部分,那麼AI也不是。我們需要接受這一點。這聽起來可能有點可怕,但我會大膽地說出來,我們在這裡必須成為「物種主義者」(speciest)。

我們會看著複製人說,是的,你不應該被當作機器對待。我支持給予複製人權利,但這應該是我們的選擇,而不是由1789年憲法制定者決定。我樂意盡我所能保護人們的言論自由,但並不包括AI。

監管理論模型:Pathetic Dot Theory

如果〈憲法第一修正案〉並未完全保護演算法,那我們又應該如何規範AI?許多人對於通用型人工智慧(Artificial General Intelligence, AGI)懷抱恐懼,甚至有調查指出,開發者認為通用型AI有10%機會成為人類存在威脅。

AI-AI應用-Pathetic Dot Theory-Pathetic Dot Theory-法律-Lawrence Lessig-科技-Code-晶片-奧本海默勞倫斯・萊斯格在書中提出「Pathetic Dot Theory」,解釋個人生活如何受到法律、社會規範、市場與科技基礎設施等四種面向調節。圖片來源:許靜之攝

想像AI是位在中心的紅點,我相信法律(Law)一定會產生影響,但隨著開源AI的釋出,等到Meta發表Llama 4或Llama 5的時候,法律的監管可能將顯得十分微不足道。

如果從社會規範(Norms)下手,像是Google一樣,把「Don't be evil」的原則告訴給所有開發者,讓所有人都能安全使用AI。不過,正如Facebook吹哨者弗朗西斯・豪根(Frances Haugen)所言,Facebook內部有許多正派的工程師,但是他們的努力經常被商業模式或市場否決,所以只仰賴規範,依然太天真。市場總是吃掉文化。

市場(Market)端思考,或許可以參考二次循環稅的概念,業者使用愈多,就得繳愈高的鉅額稅金。當然這還需要立法,而且我不認為大家能相信,市場會以積極明智的方式介入。

接下來,就有了對程式碼(Code)進行規範的想法。只要監管數家IC設計與晶圓代工企業,似乎就能避免這些支撐AI運算的晶片造成毀滅性後果,我們正處於AI的奧本海默時刻(Oppenheimer moment)。

奧本海默(Robert Oppenheimer)在二戰時期負責管理美國曼哈頓計劃,完成第一顆原子彈的開發。他對核子武器充滿擔憂,並認為美國作為原子彈生產者,可以引領放棄核武的運動,讓人類免於核子戰爭的威脅,但美國政府對此不感興趣。

這正是我們目前面臨的威脅,我們看見干預和採取行動的機會,避免在我們無法控制的情況下擴散。(延伸閱讀|AI專家李飛飛來台演講全記錄:使AI見人所不見——如何兼顧安全與隱私?

AI-奧本海默-Robert Oppenheimer-科技-AI應用-曼哈頓計劃-Lawrence Lessig勞倫斯・雷席格表示,AI的奧本海默時刻,考驗人們如何將AI威脅降到最低。圖片來源:台灣人工智慧學校

規範程式碼的三種可能

那麼,我們應該怎麼做?

許多人認為,我們應該強制監管晶片,在晶片上放置限流器,並以程式碼管理晶片,讓程式碼直接成為晶片的法律。

但是,這將讓所有人都非常焦慮。我們該如何治理這種治理?誰來決定何時打開限流器?更令人沮喪的是,如果我們走上這條路,是否就要禁止開源?所有晶片、每部設備甚至每支手機,都要受到管理機構的控制嗎?

首先,同樣面對此難題的唐鳳認為,答案並非監管晶片,而是加強網路安全。雖然聽起來不錯,不過資安支出也將大幅提升30倍。如果我們可以負擔30倍以上的資安預算,也許不需要監管晶片、也不用禁止開源,就能避免災難性的情景發生。

第二個選擇,則是改變這些AI模型背後的預設。19世紀默克(Merck)等大型藥廠在市場販售的處方藥被發現有毒時,假設藥廠的目的是想要害人,是一種愚蠢的監管方式。

到了20世紀,人們學會扭轉假設,藥廠必須先證明他們的藥品有效、安全且無害,才能投入市場。你可以想像類似的情況,如果大型AI演算法要得到許可,需要先證明其安全性,並確保在AI失控時能踩下煞車,這是一種侵入性較小的監管結果。

最後一種選擇,是我們應該思考如何以最低限度減緩AI發展的速度。

我們現在就在這輛車上,很多人對我尖叫,說煞車是侵犯基本權利的行為。大型企業認為,自己有權以最快的方式比賽,否則將無法有效與對手競爭。

但這關乎這個社會的關鍵風險,我們應該依照人類可控的水準來發展AI。因此,我認為至少應該將開發速度減慢,慢到接近於人類目前的認知程度。(延伸閱讀|「我是在做好事?還是一件很壞的事?」ChatGPT之父奧特曼的告白

兩個大哉問的解答互相矛盾嗎?

今天我提出兩個方向的問題,第一個答案是我們應該讓AI參與法治系統,甚至讓AI取代律師;第二個答案則是在確保AI的安全之前,我們應讓它保持沉默。

這兩個觀點看似矛盾,但我想為此提出說明。

首先,這兩者之間有著規模上的差異。出現在Web3上的AI應用,將是小型、去中心化和自主的複製人,並不會接管世界;但是通用型AI不易維護,我認為相當不同。

第二,法律太可怕了。任何有效的救濟措施都應被視為是安全的,而且比現有的機制都還要好。我們應該承擔風險,無論風險是什麼。

第三,我要提到亞倫・斯沃茲(Aaron Swartz),一個令人難以置信的天才,年僅13歲時就協助開發RSS,他還是CC創用介面設計師、參與開發Markdown,也是Reddit早期開發者之一。

Aaron Swartz-Markdown-Reddit-AI-Internet-人工智慧年會-AI與法律-倫理道德亞倫・斯沃茲曾參與RSS、Markdown與Reddit等技術開發工作。圖片來源:維基百科

亞倫・斯沃茲有著強烈倫理道德的影響力,當你認識他、與他交談後,你不自覺地質疑自己正在做的一切。16年前,亞倫問我,「政治體制依舊如此腐敗,你認為你能在網路和版權問題上取得進展嗎?」

我回答,政治系統並不是我的研究領域。接著,他又問:「那作為公民呢?作為公民,這是你的責任領域嗎?」那一刻讓我意識到,他說得對。

如果在接下來的20年裡,我依然只專注在狹隘的版權政策領域,但我們身後的體制沒有進步,所有的政策都將受到阻礙,沒有任何改革能被實現。

那天晚上我向他承諾,我會開始採取行動,不再僅止於研究版權或網路監理政策。我們合作過一段時間,後來他有了新的點子,想向全世界開放學術研究,2011年1月因為從J-score下載文章而被逮捕。

有人聲稱亞倫將在黑市上出售這些文章,好像哈佛法律評論的文章在黑市上有價值一樣。亞倫的意圖是什麼,沒人知道;但他們的理論是,他打算「解放」這些科學文獻,而這是一項該起訴的罪行。檢察官自豪地宣稱,將對他的行為要求判處35年監禁。

在經歷兩年抗爭後,亞倫結束了自己的生命。如果亞倫今天在這裡,我們問他對於AI的討論有什麼看法?他的回答應該跟我今天的演講內容相似,只是每次他提到網路(Internet)時,可以將其替換為AI。

世界上有兩種極端的觀點,網路很棒,或是網路很糟。事實上,兩者都是對的,網路既帶來好處,也帶來壞處,兩者都令人驚嘆不已,但是何者將勝出,取決於我們。

好與壞永遠都會存在,我們身處在沒有答案的時刻,也正是充滿希望的時刻。我們可以再次學習如何做選擇。(延伸閱讀|如何站上AI巨人肩膀?台灣的六個應變策

其他人也在看

你可能有興趣

影音推薦

#廣編企劃|【2023 天下城市高峰論壇 #9】新竹市交通處長 倪茂榮:改善交通,必須先做出優良示範道路|天下雜誌✕未來城市

已成功複製連結