The following two tabs change content below.
朱家安
1987年生的宜蘭人,在哲學系所打滾了九年,最希望的是有朝一日哲學家講話能讓大家都聽得懂。

上週我跟我伴侶老王去萬華龍山寺,她先前生活變動來求過籤,現在大致底定,來跟神明報告進度,順便請教新問題。

傳統求籤的方式是提問題、擲筊跟神明確認問題、抽籤、擲茭跟神明確認籤,後面這次擲筊連續三個聖筊才算數,否則表示神不認同你抽到的籤,要重抽重擲。老王問了問題,抽了籤,擲了三個聖筊。於是照著籤上號碼去領籤詩。

結果籤詩不是很吉利。

要離開了,老王心有不甘,跑回去換方向問了一個類似的問題。這次連抽第三籤,才擲到三個聖筊。「好像菩薩覺得我很煩一樣」老王說。

老王盡力了,但結果顯示你沒辦法跟命運對抗。這第二次抽籤擲筊,菩薩給了三個聖筊換到的籤,跟先前那個不吉利的,是同一個號碼。

菩薩有說服力的地方,剛好是AI大賽裡一個熱門策略出差錯的地方。

最有人味的電腦

羅布納(Hugh Loebner)是美國富翁,賣舞池地板起家,對社會走向有明確看法。除了認為性交易應該除罪化之外,羅布納對世界未來的另一期待,是讓機器人負責百分百的生產,人類可以做自己想做的事。

羅布納自1990開辦羅布納獎(Loebner Prize),讓電腦跟人類競賽,看誰能讓文字聊天室另一頭的評審相信自己是人。騙到最多人的電腦獲得「最有人味電腦」(the most human computer)稱號,而說服最多人的人則是「最有人味的人」(the most human human)。

2005和2006連續兩年,羅布納獎的「最有人味電腦」是同一個程式,叫「Cleverbot」。Cleverbot的AI特色是,它會回一些你在十年前還無法相信機器人會回的話,例如對時下笑話做出恰當反應。

Cleverbot的設計師後來公開秘辛:Cleverbot在網路上和真人的所有一來一往對話都會被存進資料庫,對話時,Cleverbot收到你的文字,就去資料庫搜尋其他真人遇到這種話的時候回的東西來回你。

換句話說,你每丟一個訊息給Cleverbot,就被時空穿越到過去另一個人類和Cleverbot對話的情境,得到那個人類給Cleverbot的回應。Cleverbot得到「最有人味電腦」稱號,因為它給你的回應訊息,都是其他人類真的回過的訊息。

每一回合單獨看起來Cleverbot都表現得很好,不過如果你把整串對話記錄順下來,可能會發現 Cleverbot頭不對尾。例如會出現這種對話(我隨便舉例):

人:你大學念什麼?
C:哲學系,瞞著爸媽填的
人:你選哪個科系?
C:心理,我以為這樣就可以知道別人在想什麼結果完全不是

Cleverbot輸的地方在於前後不連貫,別人會懷疑自己是不是在跟「同一個人」講話。

透過兩次連續三個聖筊,老王在相關的問題抽到同樣的籤,如果不是巧合,最吸引人的解釋或許是:人真可以藉由求籤來跟菩薩溝通。如果龍山寺的求籤系統穩定有這種表現特色,或許可以在求籤系統的圖靈測試(turing test)勝出。

圖靈測試

沒錯,羅布納獎本身就是圖靈測試。圖靈(Alan Turing)是邏輯學家,最為人知的創舉,是在二戰時破解德軍的密碼機「Enigma」。

圖靈定義的「圖靈機器」是現代計算機電腦的概念原型,雖然當時的硬體技術還做不出可以快速複雜運算的機器,但是既然是抽象原型,就可以用邏輯推算圖靈機器原則上可以辦到哪些事情。

圖靈預料到我們會有更快的硬體,並遲早可以開發出各種聰明的程式,用來解決各種問題。他也預料到,會有越來越多人開始問「這些程式是有心靈嗎?它們在做的事情算是思考嗎?」

圖靈認為,如果我們用一個操作性的概念取代「思考」,這個問題就會很好回答:程式能不能在文字對話當中模仿人類,到連人類也無法區分的地步?這個問題看起來只是把「思考」給了一個方便的操作性定義,但也和心靈哲學上的行為主義(behaviorism)呼應。

行為主義對心靈的主體抱持懷疑,認為當我們說人「具備心靈」,我們僅僅只是在說,人有辦法做出複雜的行為反應。在過去行為主義興盛的時候,有些人認為我們或許可以「逆向操作」:如果我們可以做出和人類心智有類似能力的AI,那麼,藉由研究那種AI的內部機制,或許能解開人類心智的奧秘。

程式能表現得像人嗎?以羅布納獎的經驗,答案是可以。不過若說這些有人味的程式顯示了人類心智的奧秘,這些奧秘可能跟你想的不太一樣。

人類的特色是錯字、無知、對別人不怎麼樣

十年前的羅布納獎冠軍Cleverbot雖然談話人模人樣,但對話歷程缺乏一致性,長久下來很好辨認。但是更新的其他程式就不一定了。即便尚未完全破解自然語言,程式設計師依舊想出各種創意方式,來讓程式打起字來更有人味。

讓程式像人,有些訣竅在於重現人類的不完美。例如,人會打錯字,也知道自己會打錯字,但通常不覺得程式會打錯字,所以如果你的程式會打錯字,看起來更有人味。此外,人類知識有限,曾經有人類學者參加羅布納獎,被評審認為他是電腦,因為「人類不可能懂那麼多莎士比亞」。

透過羅布納獎,設計師們掌握的另一「人味」,是人類不好相處。有些設計師發現,如果讓他們的程式偶爾使用不耐煩的語氣,會更容易讓螢幕另一邊的人類以為自己在跟真的人對話。電腦不會生氣,人才會。

美國人類作家克里斯汀(Brian Christian)希望自己能得到「最有人味的人」稱號,在參加羅布納獎前做足了功課,他的參考資料之一,是1989年柏林大學學院學生韓福瑞(Mark Humphrys)寫的程式「MGonz」。MGonz在網路上可以讓人類自願跟它戶傳訊息長達一小時,它的互動策略是主動嗆人,引人互罵。只要人被罵,就有會想回嘴,而且架一吵起來,就算頭不對尾也無傷大雅,這種充滿人味的行為,就算不破解自然語言,程式也有辦法做到。

在克里斯汀看來,圖靈測試的羅布納獎確實讓人類更懂人類心靈,只是不是往好那一面去懂。姑且不論本質,或許人類在表現上最大的特色真的是錯字、無知,以及對別人不怎麼樣

關於人類的負面特色,我們有另一個對照。圖靈在1952年因為同性性行為在英國遭到審判,法院要他在坐牢和「化學去勢」當中選一個,他選了後者。圖靈在1954年去世,一般認為是自殺。在2018年,台灣同時有人推動反對和支持同性婚姻公投。支持方在開源人年會(COSCUP)擺了連署攤位,標語就是「想想圖靈,動筆簽名」。

*參考資料:Brian Christian 2018《人性較量》行路出版,朱怡康譯

※專欄內容為作家個人創作,不代表本站立場

圖靈與人工智慧:

  1. 《人類大歷史》作者哈拉瑞:等你長大,可能沒有工作
  2. 創作版圖靈測試:電腦也能創作文學作品? 它們的表現會超越人類嗎?
  3. GOOGLE AI羅曼史讀過頭,意外長成詭異後現代詩詩人!

延伸閱讀:

  • 用Line傳送