【一週E書】他們替大眾擋住黑暗怪物;但他們只會辨識怪物,不知如何避免受傷
Photo Credit: Unsplash

【一週E書】他們替大眾擋住黑暗怪物;但他們只會辨識怪物,不知如何避免受傷

文/犁客

網際網路剛發展時,大多數人明白放到網路上的東西算是「公開」的,即使當時會看到的人不多;只想給部分特定人士看的東西,上傳的人會加密碼之類,當然也有人會設法破解,不過無論如何,上傳的人和破解的人基本上都明白這些東西原來算是「私人」的。

網際網路越普及,公/私之間的線就越淡,待到以「社群」之名入侵人類生活的網路服務出現之後,無論是上傳資料的人還是看到那些資料的人,常常都已經公私混亂了──政客會直接在社群平台上發表聲明,但公眾人物隨口抱怨的廢文也可能被視為公開表態、被媒體用來炒作,甚至連隨便一個誰在某篇貼文底下的附和發言,都可能變成媒體報導裡「網罵」、「網譏」、「網大讚」、「網暴動」的內容之一。

換個角度講,也有些東西是上傳的人很想公開、但實在不適合公開的,例如自拍的性器官照片,或者更過激、絕對觸法的,例如施虐甚至殺戮的影片,這類內容無論如何應該要在排除在能夠公開的管道之外。但話說回來,有些性器官可能出現在藝術品裡頭,或者可能是學術資料的一部分,這似乎不需要禁止;有些施虐可能是搞笑,有些殺戮可能是假造,它們該不該刪、該不該禁,又是另一回事。

在社群平台上關於「什麼該禁」的考量會越變越多,而且不見得能找到統一的標準,或者那標準可能很微妙,例如,假設把「幹」視為髒字禁止,就會同時禁掉「能幹」、「幹練」、「幹道」等等「不髒」的用詞,但這些與性行為無關的用詞,卻也的確可以在文義之間被挪移去指涉性行為。例如,假設有個人拿三秒膠黏住小貓的眼皮,這是虐待,該禁,但他如果拿三秒膠黏自己的眼皮,聲稱是為了「好玩」或進行某種「挑戰」,那該不該禁?又例如,假設有人用相當極端的言論鼓吹推翻政府,那該不該禁嗎?如果這政府很爛、他鼓吹的是解放群眾的革命,那好像不用禁,反之就該禁,但評斷政府爛不爛、鼓吹理由好不好的標準是什麼?誰有權力去做評斷?

這類「例如」可以講到天荒地老,而且每個地區遇到的狀況也不盡相同,雖然平台大多有所謂的「社群守則」但那個常常被各自解讀,沒啥共識,所以我們總會遇上明明貼的東西自認老少咸宜卻被社群平台認為有害的情況,申訴有時會還來公道有時會石沉大海;如果這是平時的瞎聊也就算了,如果這是公司的公關或行銷任務之一,那就變得很麻煩。

當然,社群平台都會開發相關演算法,以人工智慧協助過濾有違「社群守則」的貼文;不只社群平台這麼做,大多數處理巨量使用者上傳的資料、透過處理過的資料與單一使用者互動的平台也這麼做(例如搜尋引擎),因為這些平台不希望搜尋出什麼讓使用者覺得冒犯或不該被小孩子看到的結果。但,剛也講了,那個標準實在太過微妙,所以光用人工智慧沒法子完全做好,得動用工人智慧──找人來做,也就是內容審查員。

一筆使用者上傳到網路的資料,可能是社群平台上的貼圖,可能是可以被公開搜尋的文章,總之平台的人工智慧先篩過一遍之後,會交給工人智慧進行內容審查。內容審查員大多是派遣工,處理速度是績效考核重點,所以他們必須相當快速地決定這筆資料該不該被其他人看見──這個「相當快速」指的大約是十多秒,要達到這個速度,他們自然沒法子看得多仔細,可是他們的「正確率」是另一個績效考核重點,所以他們絕對不能隨便面對那些資料。不過,最大的問題還不在內容審查員可能因此漏了該禁的或禁了不該禁的,而在他們必須長時間看一大堆已經被人工智慧篩過、很可能有問題的資料,裡頭常有偏激言論和恐怖圖像,這對於他們的身心健康狀態會造成極大的傷害;很多平台管理階層為此安排了心理輔導,不過精神職災對內容審查員而言仍是極高風險的工作傷害。

某種角度說,他們是替大眾擋在黑暗怪物之前的門衛,但是他們只受過辨識怪物種類的訓練,沒有受過防止怪物傷害的訓練。而當那些黑暗滲進他們的人生各個角落之後,內容審查員對彼此、對大眾之間,會發生什麼事?

這是《被消失的貼文》要告訴你的故事。

▶▶看看【貼文遭到下架、影片被黃標……到底由誰決定?】!

▶▶看看最新上架的電子書!

延伸閱讀:

  1. 不管談不談戀愛,「談戀愛」這事都可能讓人心情不好
  2. 可拋可棄、利大於弊的終極社畜大冒險!《米奇7號》