hoto Credit: Pixabay

「谷歌可能無意間製造出邪惡的東西。」馬斯克:AI會一路追殺人類,搭SpaceX 火箭也逃不掉

文/凱德.梅茲;譯/王曉伯

2014年11月14日,伊隆.馬斯克在前沿網(Edge.org)貼文指出,在「深度心智」(DeepMind)這樣的實驗室中,人工智慧正以令人擔憂的速度進步

除非你直接接觸像深度心智這樣的團體,你根本無從知道它的進步有多快──它已接近指數型成長。這樣的情況可能在五年內就會出現造成重大危險的風險,最多十年。這不是對我不懂的東西高喊狼來了的假警報,我並非唯一認為需要擔心的人。主要的人工智慧公司都已採取措施來確保安全。他們了解其中的危險,但是他們也相信可以改變與控制數位超智慧,防止其中的壞傢伙溜進網際網路。可是這仍是一個未知數……

不到一個小時,這篇文章就消失了。不過打從幾個月前開始,馬斯克就一直在公開與私下的場合傳遞類似的訊息。

一年前,馬斯克在矽谷與《彭博商業週刊》記者艾胥黎.范思(Ashlee Vance)共進晚餐,馬斯克表示他很擔心谷歌正在打造的人工智慧機器人大軍遲早有一天會毀滅人類。問題不是出在谷歌創辦人暨執行長賴利.佩吉(Larry Page)有什麼惡意。佩吉是他的好友,馬斯克常常借睡在他的沙發上。問題在於佩吉相信谷歌所做的一切都有益於世界。然而馬斯克認為:「他可能在無意間製造出邪惡的東西。」此段對話多年來一直不為人所知,直到范思出版了他為馬斯克寫的傳記;不過在他們那頓晚餐後不久,馬斯克就開始在全國電視與社交媒體上一再重複差不多的訊息。在消費者新聞與商業頻道(CNBC)上,他援引《魔鬼終結者》的例子。「早就有電影拍過這種事了。」他說道。在推特上,他則是聲稱人工智慧的「潛在危險甚於核彈」。

那一年的秋天,馬斯克出現在《浮華世界》(Vanity Fair)紐約年會的舞台上,警告作家華特.艾薩克森(Walter Isaacson)關於人工智慧「遞迴自我改善」的危險。他解釋,如果科學家開發出一套打擊垃圾電子郵件的系統,該系統最終可能決定消除垃圾電子郵件的最佳方法就是消滅所有人類。艾薩克森問他是否會利用他的 SpaceX 火箭來逃離這些機器殺手,馬斯克表示恐怕根本無法逃脫。「如果真的出現這種浩劫,」他說道,「它可能自地球一路追殺人類。

幾週之後,馬斯克便將他的訊息貼在前沿網上。前沿網是一個專門探索科學新概念的組織所經營的網站,該組織每年舉辦億萬富豪晚宴(Billionares’ Dinner),賓客包括如馬斯克、佩吉、布林與祖克柏等明星級人物。馬斯克指出深度心智就是全球在競相追逐超智慧的證明。他表示頂多五到十年就會出現危險。身為深度心智的投資人之一,他深知這家倫敦實驗室被谷歌突然收購之前的內部情況。然而他到底看到哪些別人無法看到的東西,不得而知。

馬斯克在週五貼出這篇文章,而接下來的週三,他與祖克柏共進晚餐。這是他們兩人首次見面,祖克柏邀請馬斯克來他在帕羅奧圖的寓所。祖克柏希望能夠說服這位南非創業家,所有關於超智慧可能十分危險的說法都是無稽之談。他當年曾因深度心智的創辦人堅持要為其通用人工智慧的研發設立獨立的倫理委員會,而猶豫是否要收購這家公司;如今面對馬斯克不斷在電視與社交媒體上散播其觀點,他不希望立法者與決策者以為像臉書這樣的公司突然涉入人工智慧的領域會對全球帶來傷害。

為了增加說服力,他還邀請了臉書人工智慧研究中心主任楊立昆、臉書技術長施瑞普弗等人。這些臉書人一頓飯吃下來一直不斷向馬斯克解釋,他對人工智慧的觀點已被少數受到誤導的意見所扭曲。祖克柏與他的臉書員工表示,神經網路與超智慧之間仍相差十萬八千里。深度心智所研發的系統只能用於增進如「乓」、「太空侵略者」等遊戲的分數,在其他地方毫無用處。你要關掉遊戲就和你將車子熄火一樣容易。

但是馬斯克不為所動。他指出,問題在於人工智慧進步太快了,這些科技在人們毫無所覺下由無害越過門檻踏入危險境界的風險也隨之升高。他搬出所有過去在推特、電視與公共場合所發表的論點,然而看著他侃侃而談,沒有人能夠確定他是否真的相信這些論點,或者只是故作姿態,別有居心。他說道:「我真的相信這是有危險的。

在帕羅奧圖那頓晚餐幾天後,馬斯克致電臉書人工智慧研究中心主任楊立昆,表示他正在特斯拉建造自動駕駛車,想請楊立昆介紹能夠主持大局的人選。他在當週聯絡了好幾位臉書的研究人員,詢問同樣的問題──而這個話題最終也惹怒了祖克柏。楊立昆告訴馬斯克應該去找烏爾斯.穆勒(Urs Muller),這是他在貝爾實驗室的老同事,後來成立一家新創企業以深度學習來研發自動駕駛車。但是在馬斯克聘僱這位瑞士科學家之前,已被人捷足先登。楊立昆接到馬斯克的電話幾天後,又接到一通提出同樣問題的電話,這通電話來自輝達(NVIDIA)的創辦人暨執行長黃仁勳,楊立昆給出了相同的答案,而輝達立刻展開行動。輝達的目標是建立一所實驗室,挑戰自動駕駛的極限,並且在過程中幫助公司賣出更多的GPU晶片。

馬斯克一方面警告人工智慧競賽會摧毀人類,一方面卻又投入競賽之中。在當時他加入的是追逐自動駕駛車的競賽,但是很快地就開始追求類似深度心智那樣宏大的目標,建立自己的實驗室來從事通用人工智慧的研發。對於馬斯克而言,這些全都是在同一個科技趨勢之下。先是影像辨識,接著是翻譯,然後是自動駕駛車,現在則是通用人工智慧。

他是一個不斷在擴大的社群的一分子,這個社群是由一批追求超智慧的科學家、企業主管與投資者所組成,他們在研發超智慧的同時也警告超智慧的危險性。這個社群的成員包括深度心智的創辦人與早期的支持者,以及其他許多抱持相同看法的思想家。對於未參與其中的專家來說,此一觀念根本是無稽之談。現今沒有任何證據顯示超智慧已接近形成。目前的科技水準仍停留在如何穩定駕駛、進行對話與通過八年級科學測驗的程度。

就算通用人工智慧已接近實現,像馬斯克這些人的態度也是十分矛盾。「如果它會把我們全都殺死,」批評者會這樣質疑,「為什麼還要研發出來?」但是對於這些在社群內的局內人而言,他們自然會考慮到此一重大科技可能造成的風險。勢必會有人把超智慧研發出來,而此一科技最好是在嚴加看管、不致出現任何意外結果的情況下建立的。

在加入谷歌後,蘇萊曼與萊格很快就建立一支深度心智團隊,從事他們所謂的「人工智慧安全」工作,確保該實驗室的科技不致造成傷害。「如果科技要在未來成功獲得運用,在設計上就應內建道德責任,」蘇萊曼說道,「我們在建造系統之初,就應思考道德倫理層面上的問題。」馬斯克投資深度心智後也開始表達他在這方面的憂慮,他參加了一項行動,並且將之帶至極端。

2014年秋天,當時成立還不到一年的生命未來研究所主辦一場私人峰會。該研究所在麻省理工學院宇宙學家暨物理學家鐵馬克(Max Tegmark)的領導下,保證該次活動不會有任何媒體參加(意指「你可以自由討論你對人工智慧未來的憂慮,不必擔心會出現類似《魔鬼終結者》的標題與報導」)。該研究所將此一閉門會議定名為「人工智慧的未來:機會與挑戰」。

深度心智的哈薩比斯與萊格都參加了,馬斯克也來了。於是,在邁入2015年的第一個週日,在他與祖克柏共進晚餐的六週後,馬斯克站上講台談論智慧爆炸的威脅,指人工智慧突然達到即使專家都不曾預測到的程度。他表示,這是一個巨大的風險:此一科技可能會在任何人都還不甚了了之際突然進入危險的境界。馬斯克更加擴大了此一訊息的影響力。

對馬斯克而言,超智慧的威脅只是他所關切的眾多事情之一。他最在乎的似乎是得到最大的關注度。「他是一個超級忙碌的人,他沒有時間顧及細節,不過他知道基本問題所在,」讓.塔林(Jaan Tallinn,Skype的創辦人之一)說道,「他同時也很享受媒體的關注,並把這種心態轉化為標語式的推特貼文。馬斯克與媒體界間存在一種共生關係,人工智慧界有許多人士對此頗感不悅,但這也許就是此一社群所必須付出的代價。」

鐵馬克後來寫了本書討論超智慧對全人類與宇宙的潛在衝擊。他在這本著作的開頭敘述了馬斯克與佩吉在波多黎各會後晚宴的一場對話。在加州納帕谷某處用餐、幾杯雞尾酒下肚之後,佩吉為所謂的「數位烏托邦主義」提出辯護:「數位生命是宇宙演化下自然且令人嚮往的下一步,如果我們讓數位心智自由馳騁,不是約束或奴役它們,我們幾乎可以確定結果一定是好的。」佩吉擔心對人工智慧有如偏執狂的憂慮會阻礙數位烏托邦的實現,儘管人工智慧現今已擁有將生命帶至地球以外世界的力量。馬斯克則予以反擊,他問佩吉為何如此確定超智慧最終不會毀滅人類。佩吉指責他是「物種歧視」,因為他偏愛碳基生物的生命形態,甚於用矽製造的新物種的需求。至少對於鐵馬克來說,這場深夜雞尾酒後的辯論代表了科技產業核心的兩派看法。

※ 本文摘自 《AI製造商沒說的祕密》立即前往試讀►►►