只是,AGI究竟是什麼呢?好巧不巧,前陣子Google Deepmind發表一篇名為〈通用人工智慧等級:實現通往AGI之路的進展〉(Levels of AGI: Operationalizing Progress on the Path to AGI)的論文,試圖重新定義這個顯得既氾濫又模糊的名詞,為AGI提供了一個更為實際且更有助於討論的全新框架。
AGI的9派定義與局限
起先,我也和大家一樣大惑不解,為何要幫AGI分等級?《幽游白書》真人影集預告才剛釋出,難不成這是受到日漫影響,妖力S級、A級⋯⋯之類的?仔細看了看論文,才發現Deepmind拿出「自駕等級」類比,就像國際汽車工程師學會(SAE)在2021年提出的自動駕駛分級,是從「駕駛輔助」到「完全自動」一共分作L1至L5五級,AGI也應該理當分級才是。嗯,確實有幾分道理。
在武斷地做出AGI的等級區分之前,Deepmind的論文先對過往AI大大們所提出的「AGI定義」進行一番指點和討論,來了一場禮貌大回顧。
- 圖靈測試
先從最OG的「圖靈測試」(Turing Test)回顧起。圖靈在1950年發表了劃時代論文,預言人類創造出具備智慧的機器的可能性。由於難以確切定義出何謂「智慧」,因此他提出了圖靈測試——也就是一台能與人類對話、並且不被辨別出機器的身分,那就通過了圖靈測試。
但眾所皆知,如今包括GPT在內的許多LLM都已經通過了圖靈測試。但很顯然,它們都還不算真正的AGI。
圖靈藉由「圖靈測試」,判斷機器的智慧能力。圖片來源:Wikipedia
- 強AI:擁有意識的系統
「強人工智慧」(Strong AI)是哲學家約翰塞爾(John Searle)提出的概念,他認為在經過適當的編程並賦予正確的程式之後,電腦也算是擁有思維。但某種程度來說,把AGI的構成條件推往更難被定義的「意識」,反倒更難進行討論。
- 人腦類比
AGI一詞最早出現在馬克古布魯德(Mark Gubrud)在1997年的軍事技術的文章,他定義AGI是「在複雜性和速度上媲美或超越人腦的AI系統」。但Deepmind的論文指出,就算現代機器學習和神經網絡的確受到人腦的啟發,但未必就代表AGI得依照人腦的模式發展。
- 認知任務達人類水準
這個AGI定義聽起來蠻合理——直到生成式AI的出現。
何謂認知任務?簡單來說,就是非體力活的工作。可是,ChatGPT或Midjourney等工具都已經達到人類的水準了啊。那是不是能說,現在AI已經達到通用人工智慧的等級了呢?(打完收工)
- 學習能力
倫敦帝國理工學院認知機器人學教授沙納漢(Murray Shanahan)在他的著作《科技奇點》(The Technological Singularity)提出:「AGI是一種不專門執行特定任務的AI,而是能夠學習並執行與人類一樣廣泛任務的AI。」他的AGI框架,更強調了學習和通用的重要性。
沙納漢指出,AGI的學習及通用性非常廣泛,並不局限於單一領域。圖片來源:沙納漢網站
- 具備經濟價值的工作
根據OpenAI2018年的憲章定義,AGI指的是「在大多數經濟價值工作中超越人類的高度自動系統」。但Deepmind論文認為這個定義有點狹隘,畢竟有許多與智慧相關的工作,並沒有明確的經濟價值,比方說藝術和創造類的工作。
- 靈活與通用:咖啡測試與其他挑戰
另一位認知心理學科學家、前陣子才狂嗆圖靈獎得主楊立坤(Yann LeCun)的馬克思(Gary Marcus)也有自己的AGI定義。他認為,AGI指的是在靈活性和通用性都具備了相當於或超越人類智慧的AI,他一共列出了五項任務類別,從看懂電影,到會在任何的廚房裡做飯。
Deepmind論文說,這很類似於蘋果的另一位創辦人沃茲尼克(Steve Wozniak)曾提出的「咖啡測試」,指的是通用人工智慧,得到任一個美國家庭,找到咖啡機、找到咖啡豆、加水、找到杯子、到按下正確的按鈕,最終泡好一杯咖啡才算合格。
沃茲尼克提出的「咖啡測試」,可考驗AGI的通用性、靈活性。圖片來源:Woz.org
- 人工「能力」智慧
另一位AI大咖,Deepmind創辦人、現又創立Inflection AI,在搞另一個聊天機器人Pi的蘇萊曼(Mustafa Suleyman),今年也出版了新書《即將到來的浪潮》(The Coming Wave)。裡頭提出人工能力智慧(Artificial Capable Intelligence,ACI)的概念,更著重在AGI能做什麼,指出是「具有足夠能力和通用性,以完成開放世界的複雜、多步驟任務的AI系統。」
他還提出他版本的「現代圖靈測試」——他會拿出十萬美元給AI,假設AI有辦法在幾個月內翻成100萬美元(約新台幣3,150萬元)就算通過。(嗯,能做到我也服了。)(延伸閱讀|AI有無限可能!OpenAI奧特曼與台裔主管陳信翰:下一代最幸運,別因別人嫌蠢就放棄【對談全文】)
蘇萊曼提出,AGI應有足夠能力及通用性,可完成多步驟的任務。圖片來源:蘇萊曼網站
- 大型語言模型已是通才
兩位Google研究院的大神亞克斯(Blaise Agüera y Arcas)和糯米格(Peter Norvig)最近提出,目前較領先的大型語言模型(GPT-4、Bard、Llama 2、Claude)都已經算是AGI了。
他們認為,「通才」是AGI的關鍵屬性,而這些語言模型已經有足夠的通用性,比方可進行廣泛的討論、執行各種任務、處理多模態輸入輸出、多種語言操作等等。(延伸閱讀|大型語言模型(LLM)是什麼?被用在哪6大場景?看懂6大重點)
6種AGI等級:從菜雞到超人
綜上所述,Deepmind論文接著歸納出更實用的「AGI六大原則」來進行AGI的分級與定義:
- 重點在於AI能做到什麼,而不是它如何做到
- 通用性和能力同樣重要
- 認知型任務與學習新事物的能力是衡量的標準
- 重點在於潛力而非部署
- 生態效度,也就是在真實世界的實用性很重要
- 關注在通往AGI的道路,而非單一終點
好的,如果你看到這邊已經逐漸恍神了,那不妨直接來看AGI的等級表吧!
通用性與能力 | 狹義(專才,特定任務) | 廣義(通才,廣泛的非體力任務,包括學習新技能等後設認知能力) |
---|---|---|
Level 0:非AI |
狹義非AI
|
廣義非AI
|
Level 1:新手 等於或略優於無技能的人類 |
新手級狹義AI
|
新手級AGI
|
Level2:熟手 贏過50%的有技能成年人 |
熟手級狹義AI
|
熟手級AGI
|
Level 3:專家 贏過90%的有技能成年人 |
專家級狹義AI
|
專家級AGI
|
Level 4:大師 贏過99%的有技能成年人 |
大師級狹義AI
|
大師級AGI
|
Level 5:超人 超越所有人類 |
超人級狹義AI
|
超人級AGI
|
人與AGI的關係:人類躺平,AI才可怕
既然這篇Deepmind論文是以「實用性」為出發點,那想必AGI的等級就不會只是列爽的。
AI熱潮以降不斷出現的各種AI威脅論,大家都是耳熟能詳;只是對話很難聚焦的原因,在於各方並沒有以相同的定義來作為討論的基礎。因此,這篇Deepmind論文就用了這個新框架,清楚地告訴我們,不同等級的AGI可能引發的風險與威脅。
自主性等級 | 範例 |
需解鎖的 AGI等級 |
導入風險與威脅 |
---|---|---|---|
Level 0:非AI 人類做所有事 |
|
非AI | 零風險 |
Level 1:把AI當工具 人類完全控制,只是用AI自動執行普通的任務 |
|
|
|
Level 2:把AI當顧問 當人類召喚時,AI能發揮實質的作用 |
|
|
|
Level 3:把AI當夥伴 針對目標和任務互動協調,人類與AI平等協作 |
|
|
|
Level 4:把AI當專家 主要由AI負責,人類提供指導和回饋 |
|
|
|
Level 5:把AI當代理人 完全自主的AI |
|
|
|
值得注意的是,AGI的能力高低並不直接與風險的高低有關,反倒是人類在部署AI時,為了偷懶而賦予AI「自主性」(Autonomy),才會導致潛在威脅。
這點是人類在應用AI時需要去注意的,畢竟一個高能力但低自主性的AGI,還是相對安全,因為它的行動仍然受到人類的控制和監督。
好的。看起來這篇Deepmind論文真的把接下來的AI發展,以及可能性的風險講得頗清楚了。不曉得大家是否期待著這樣的未來呢?(延伸閱讀|張潔平:將反覆練習外包給AI,人類還培養得出創造力嗎?)
(本文授權自VIVE後浪潮)
延伸閱讀