The following two tabs change content below.

文/史考特.蓋洛威;譯/許恬寧

如果我上 Facebook 點選民主黨總統參選人伯尼.桑德斯(Bernie Sanders)的報導,又在民主黨參議員查克.舒默(Chuck Schumer)的報導下按「大心」(love),Facebook機器不費吹灰之力,就能把我扔進死忠自由派人士的資料桶。如果想多耗費一點運算力氣,再多確認一下,機器會發現我的自我介紹中,出現以自由學風著稱的「柏克萊大學」(Berkeley),也因此可以信心滿滿把我放進激進環保主義者的桶子。

接下來,Facebook 的演算法開始給我看更多自由派的文章,只要我點選,Facebook 就能賺錢。新聞動態的能見度是依據四種基本變數排列(創作者、熱度、文章類型與日期),外加Facebook自己的廣告演算法。一旦我閱讀某個內容,不論是《衛報》(Guardian)的時事短評、民主黨參議員伊莉莎白.華倫(Elizabeth Warren)表達憤怒的 YouTube 影片,或是我某個朋友抱怨政治的文章,演算法就會知道以後要給我看什麼動態,因為它已經把我歸類為改革派。

如果是並未清楚表明政治立場的用戶呢?要怎麼推銷政治報導給那些人?他們之中大概許多是溫和派,因為多數美國人是溫和派,很難摸清好惡。針對這樣的用戶,Facebook 機器必須一一應用較為複雜的演算法,分析朋友網絡、動態、郵遞區號、他們使用的字詞,以及他們造訪的新聞網站,得多費許多功夫,利潤也就沒那麼高。

此外,即便耗費那麼多演算功夫,依舊無法確認會有效,因為 Facebook 準備賣給廣告商的每一桶溫和派名單,不是依據個人直接發送的訊號,而是依據大量的相關資訊,永遠可能誤判。我住在紐約格林威治村(Greenwich Village),那裡是民主黨大本營,僅6%的選民投給川普,可以確定我不只活在同溫層的泡泡之中,甚至可以說是活在沒有對外窗戶、鋪著軟墊的病房中。即使如此,以無窗的軟墊病房來講,那裡還算挺舒適的。

溫和派不好吸引,也不好預測。各位可以想想,如果影片內容是某個穿著開襟毛衣的傢伙,不疾不徐探討美墨自由貿易的正反意見,會有多少人按讚?向溫和派推銷東西,就像是靠壓裂法採集天然氣,只有在沒其他簡單法子了,才不得已做那種事,也因此我們愈來愈少接觸到冷靜說理的內容。

換句話說,Facebook 及其他依靠演算法的媒體很少替自己找麻煩,在溫和派身上下功夫。如果知道你偏向共和黨,就給你更多共和黨的東西,直到你準備好接受爆流量、重口味的共和黨內容,例如極右派布賴特巴特新聞(Breitbart)電台政論節目的音頻。你的頁面甚至可能跳出極右翼新聞人士亞歷斯.瓊斯(Alex Jones)。不論是左派或右派,狂熱分子會上鉤點選。具備衝突爭議、引發憤怒的文章點選次數最高,衝高文章點閱率,在 Google 與 Facebook 的排名會同時向前,進而吸引更多用戶點選與分享。在最好(最糟)的狀況下(這種事每天都在發生),相關報導或影片會被瘋傳,觸及數千萬、甚至數億人,使我們進一步深陷同溫層。

相關演算法就是這樣助長著美國社會的兩極化。我們可能自認理性,然而我們的大腦深處藏著生存衝動,把世界分成「我們」 VS. 「他們」,很容易就被挑起憤怒與義憤填膺的情緒,忍不住想點選白人至上主義領袖理查.史賓沙(Richard Spencer)挨揍的影片。政治人物令人感到極端,然而他們只不過是在迎合大眾──迎合我們每天在新聞動態上表達的怒氣,迎合我們走向極端的行為。

從管制「仇恨」言論開始

Facebook 可以如何執行某種形式的編輯控管?可以從管制歧視與傷害他人的仇恨罪(hate crime)做起,這類型的言論很容易就知道誰是正確的一方。此外,以數量而言,意圖犯下仇恨罪的人數不是那麼高。Facebook 可以舉手大聲說:「再也不能貼仇恨的言論!」如此一來,如同剩下的三騎士,Facebook 高層就可以把自己包上支持進步的外衣,掩飾自己貪婪、保守、避稅、摧毀工作機會、感覺又更接近達爾文,不像左派參議員華倫的行為。

假新聞對民主帶來的威脅,更勝幾個戴白頭罩的瘋子。然而假新聞是一門欣欣向榮的事業,若要擺脫假新聞,Facebook 將不得不負起責任,擔任全球影響力數一數二的媒體公司編輯。Facebook 將得開始判斷事實與謊言,而那必然也將引發憤怒與懷疑──也就是主流媒體每天都在面對的問題。更重要的是,打擊假新聞將使Facebook 損失數十億點擊與大量營收。

Facebook 試圖靠宣稱自己不是媒體而是平台,躲開外界對 Facebook 內容的抨擊。這種說法乍聽之下有理,但「平台」一詞,從來都不代表企業就可以不為自己帶來的傷害負責。要是麥當勞被發現店內八成牛肉都是假肉,害民眾生病,但宣稱自己不必負責,因為麥當勞不是速食餐廳,而是速食平台,各位覺得如何?我們有可能容忍這種事嗎?

Facebook 發言人在面對爭議時表示:「本公司無法擔任事實的仲裁人。」為什麼不行,這絕對是可以努力的方向。如果 Facebook 是目前最大的社群網站,觸及67% 的美國成人,而且平日在 Facebook 上看新聞的民眾愈來愈多,那麼Facebook 實際上的確是全球最大新聞媒體。真正該問的是,新聞媒體是否背負著更大責任,理應追求與監督真相?那難道不是新聞媒體的重責大任?

Facebook 在爭議持續升溫後,推出打擊假新聞的工具。使用者現在可以標示假新聞,被檢舉的文章會被傳送給事實確認服務。此外,Facebook 也利用軟體辨識可能的假新聞。然而,即便的確是假新聞,以上兩種方法頂多將文章標示為「具爭議性」。由於美國的政治氛圍十分兩極,再加上「逆火效應」(backfire effect,如果給別人看他們相信的事的反證,對方反而會更加堅持己見),標上「具爭議性」的標籤無法說服多少人。「愚弄人們」比「說服人們他們被愚弄」簡單。

我們一般認為社群媒體是中立的,社群媒體只是一個呈現內容的空間,每個人獨立思考,自行分辨是非對錯,選擇要不要相信,自己選擇互動方式。然而研究顯示,我們會點選哪些內容,其實深受潛意識影響。

生理學家班傑明.李貝特(Benjamin Libet)以腦波圖(EEG)證實,一個人感到自己決定要做動作的 300 毫秒前,就能偵測到大腦運動皮質的活動。換句話說,我們是靠衝動點選,並未深思熟慮。我們深受渴望歸屬感、被認同與安全感的深層潛意識需求影響。Facebook 利用人類需求,給我們很多「讚」,引誘我們花更多時間在平台上(Facebook 的核心成功指標就是「逗留時間」),寄送打斷工作或家庭生活的緊急通知,告訴你有人剛剛幫你的照片按讚。我們之所以分享符合自己與朋友政治觀點的文章,原因是預期會得到讚。文章的煽動性愈高,得到的回應也愈多。

前 Google 設計倫理師崔斯坦.哈里斯(Tristan Harris)是此一領域的專家。他知道科技如何挾持我們的心理弱點,以吃角子老虎機比喻社群媒體寄送的通知。兩者都提供各式大腦獎勵:你被引發好奇心,我會得到 2 個讚,還是 200 個讚?於是你點選 APP 圖示,等著轉輪開獎──1秒、2秒、3秒,吊胃口只讓獎勵更美好:有 19 個讚。再多等 1 小時,會不會更多?得登入才知道。你登入後,網路機器人在資訊空間四處散布的假新聞,正在等你。你可以和朋友分享那些報導,就算自己還沒讀也一樣。你很清楚分享同溫層原本就相信的事,將得到圈子的認同。

Facebook 小心不讓人類(天啊!)或任何實質的判斷介入,宣稱這種做法是為了維持公平性。Facebook 解散旗下整個「趨勢」(Trends)人工編輯團隊時,也給了相同理由。理論上,由人類擔任把關者,將帶來隱藏或明顯的偏見,然而人工智慧同樣帶有偏見,因為人工智慧也是人類設定的,負責篩選出最可能吸引點閱的內容,點擊率、次數、站內停留時間是最優先的考量。人工智慧無法辨識假新聞,頂多只能依據來源懷疑。唯有由人類擔任的事實查核員,才有辦法確認報導的真偽與可信度。

數位空間需要規範。Facebook 已經有規範──刪除具有歷史意義的赤裸小女孩逃離燃燒村莊的越戰照片,還刪除挪威總理批評 Facebook 做法的文章,鬧得人盡皆知。人類編輯會知道,那張小女孩裸照是經典戰爭照片,人工智慧不會知道。

Facebook 之所以不肯讓人類重返編輯崗位,還有一個更大但避而不談的原因:請人花成本。為什麼要花錢找人做使用者自己就能做的事?而且不雇用人類編輯,還可以說成是維護言論自由,即便眼前的情況就像是人山人海的電影院裡,有人亂喊「失火了!」這種事令你感到憤怒恐懼?那更好。Facebook 不把自己當媒體公司是有原因的,媒體有太多責任,帶來妨礙成長的阻力。四騎士才不搬石頭砸自己的腳。

※ 本文摘自《四騎士主宰的未來》,原篇名為〈長壽的關鍵是愛,最棒的廣告收入來源,也是愛〉,立即前往試讀►►►

  • 用Line傳送