
事實查核者的天敵:越修正越相信錯誤的「逆火效應」
文/艾莎.威克福斯;譯/葉品岑
確認偏誤經常被那些聲稱人類不理性的人拿來當範例。然而,我們大也可以把這種偏誤視為不惜一切保持理性的嘗試。如果我不吸收不利自身信念的證據,就沒有理由改變信念!這就好像在一月的某個早晨把自己關在家中儲藏室,避免得知外頭天氣的真相。只要留在儲藏室裡,我就沒有理由去相信屋外有暴風雪。將證據倒向對自己有利的方向顯然不是理性的,可是很多確認偏誤的例子其實都是在避免尋找或接收對自身信念不利的證據。假如目標是獲得知識,這麼做在實踐上並不理性,但這代表你不用改變觀點,理論理性也可以全身而退。
另一方面,動機性推理不是理性的,而且還有很多傾向會對理性造成重大威脅。舉個例子,在某些情況下,你會明知沒有證據卻緊抓著自己的信念。史丹佛大學在一九七○年代做的一項著名實驗,請學生參與關於自殺的研究。[39]
信念故著
實驗要求學生讀遺書,他們的任務是判斷哪些遺書是真的(由真正自我了斷的人所寫),哪些是捏造的。讀完全部遺書後,有些學生被告知他們很會挑選真正的遺書,在二十五題中答對了二十四題。其他學生被告知他們猜得很糟,二十五題中僅僅答對了十題。當然啦,這完全是場騙局,過一段時間後,學生們就會得知真相。平均來說,被告知幾乎全答對的人,和其他學生一樣不擅長辨識真正的遺書。[40]
接著研究者測試實驗真正想測試的東西。他們要求學生自我評估在辨識真假遺書上的表現。奇怪的是,先前以為自己很會挑選的學生們,依舊認為自己的表現遠高於平均值。他們緊抓著研究者塞給他們的不實信念──儘管支持這信念的證據已被破壞。他們不再有任何理由認為自己的表現在平均之上,卻還是繼續這麼認為。因此,他們的信念是不理性的,研究者將此現象稱為信念故著(belief perseverance)。
信念故著的神奇之處在於,即使你已經接受某個陳述為假,它還是會留下痕跡。這是信念與信念之間存在重要連結所導致。我已強調過信念與行動相連:我做的事,受到我的目標和我的信念影響。如果我想開車去上班,而且我相信汽車就在停車場,我將前往停車場。但信念與其他信念存在連結是不爭的事實。假如我相信自己的車在停車場,代表我也相信自己有一輛車,相信一個停車場存在,相信我的車不在街上,相信需要鑰匙才能進入停車場,相信昨夜降雪後車子沒有被雪覆蓋等等。
一旦我得到一個新的信念(我發現汽車肯定不在停車場),這會對許多其他信念產生影響──我需要修正之前的某些信念,而且必須採用能反映我剛得知內容的新信念,這將導致認知系統的進一步修正。所以有些人形容推斷像是一種雜交關係。信念故著顯示有時即使你已經放棄某個信念,因為該信念而連帶產生的其他信念仍會故著在你的腦袋。原有的信念在被否定之後,依舊保有影響力。
錯誤資訊的影響力超乎我們預期
在一項著名實驗中,受試者被要求閱讀一份虛構的火災報告。[41]報告敘事按時間順序進行,開頭指出火災是櫥櫃存放的可燃性油彩引發。這則資訊在下一個句子中被改正,並特別強調前面的陳述是錯誤的──櫥櫃裡沒有任何可燃性產品。假如你是個理性的人,你會修正本來的信念(現場有可燃性產品)。然而,實驗證明錯誤陳述持續影響受試者接下來的信念,即便他們已經接受該陳述為假。舉例來說,讀完整份報告後,他們被要求指出火災的原因:他們傾向說火災是可燃性產品所致。在此同時,當被問及報告中是否有任何錯誤陳述時,他們也會答覆櫥櫃裡有可燃性產品的陳述是錯誤的。也就是說,他們把明知錯誤的陳述當作判斷起火原因的假設。這對改正錯誤資訊的機會當然構成了一大挑戰,因為這意味著錯誤資訊可能在一個人接受該資訊為假很久之後,繼續對他的信念網絡產生影響。
「持相反意見的人見面和辯論的次數愈少,我們得到真相的機會就愈小。」
就連立刻被拋棄的資訊,過一段時間後,都能造成影響。[42]如果立刻告知受試者某個資訊來源是不可靠的,他們起初會把這個來源的可信度看得很低。但隨著時間流逝,變化跟著發生,最終那個資訊在受試者心目中的可信度將提高。這和事實查核面對的另一個非常重大的挑戰有關:人記得的是陳述本身(三百萬人非法投票!),而不是該陳述為假或是毫無根據的資訊。基於這個原因,媒體在犯錯時應該即刻改正是非常重要的。最要緊的是,媒體絕不可複述錯誤的陳述──至少不要加以強調。
逆火效應
事實上,情況似乎比上面的描述還糟糕。糟糕的不只是信念停留在原位(insitu)且留下痕跡,儘管我們接受那些信念欠缺證據或不實。我們的信念可能是被不利證據強化了。研究者把這個情況和剷除科學迷思(像是疫苗的害處)的嘗試一起研究,而後指出這是非常困難的事。[43]在極端案例中,受試者不僅不拋棄科學迷思,甚至更加相信那是真的。這個奇怪的現象名叫逆火效應。在充滿政治色彩的事實議題中,也能看到類似的結果,像是伊朗境內在二○○三年美軍入侵之前有大規模毀滅性武器的陳述。[44]改正會導致錯誤信念被強化,對事實查核者顯然是一大挑戰。造成反效果有很多不同的方式。其中一個可能的情況是,改正僅僅因為提及迷思就強化了迷思──愈是談論,愈是擴散。這是因為我前面提到的現象──人們傾向記得資訊本身,但不會記得指出資訊為錯誤資訊的陳述。
另一個可能的情況是,太多的反論造成反作用(假如我拿贊成疫苗不會造成自閉的論點對你狂轟濫炸,你可能會還手),或是事實查核這個動作就引人懷疑。我們的確可以合理假設逆火效應的發生,也就是改正導致一個人更加深信錯誤陳述的情況,通常和接受某種陰謀論有關。假如人們相信事實查核者別有祕密企圖,事實查核的動作就讓人有理由相信爭議信念其實是真的──要不然這些人幹嘛吵個沒完?[45]
逆火效應似乎是嚴重挑戰理性為人類根本的認知扭曲。然而,我認為我們在詮釋這些結果時應該更謹慎。[46]首先你要記得,當人接收到和自己信念違背的證據時,這些信念一般而言不會被強化。誠如我在前文中強調的,這麼做的話,我們連一天都活不過。我認為現在過馬路是安全的,但突然間我看到一輛卡車靠近。我得相當迅速地修正我的信念。應該是說,我們在碰到特定類型的信念時,有抗拒證據的傾向。被告知很擅長辨識遺書的人不願拋棄這個信念,絕不是碰巧而已。人人都想覺得自己很棒,一切顯示我們有特殊才華的跡象,無論多麼微小,往往都教人難以忘懷。至於構成你世界觀或認同感核心的信念,當然就和我先前討論的政治動機性推理有關。當構成意識形態取向和自我認知的信念受到證據挑戰,人往往會心生抗拒。
同樣值得強調的是,你可能非常相信自己有充分理由駁斥證據。要是你已經認為「敵營」的人不可靠,你不會相信任何看似與他們有關的證據。你於是自認已破壞了反證,在這一點上,你可能會覺得自己從頭到尾相當理性。在下一章裡,我們將探討不實資訊和宣傳如何造成這種反應。
註釋
[39] Ross, L. Lepper, M.R. Hubbard, M. 1975. ‘Perseverance in Self-Perception and Social Perception: Biased Attributional Processes in the Debriefing Paradigm’. Journal of Personality and Social Psychology. Volume 32(5).
[40] 有些信是真的,從洛杉磯警局取得。今日人們對這類實驗可能持保留態度。
[41] 相關討論見Mandelbaum, E. & Quilty-Dunn, J. 2015. ‘Believing Without Reason, or: Why Liberals Shouldn’t Watch Fox News’. The Harvard Review of Philosophy vol. XXII.
[42] 見Mandelbaum, E. & Quilty-Dunn J. 2015.
[43] Cook, J. Lewandowsky, S. 2011. The Debunking Handbook.
[44] Flynn, D.J. Nyhan, B. Reifler, J. 2017. ‘The Nature and Origins of Misperceptions: Understanding False and Unsupported Beliefs about Politics’. Advances in Political Psychology, 38.
[45] 有人已經指出相信陰謀論是科學否定背後的共同點。見Lewandowsky, S., G.E. Gignac & K. Oberauer (2013). The Role of Conspiracist Ideation and Worldviews in Predicting Rejection of Science, PLOS One, October 2, 2013. 我會在第四章討論陰謀論。
[46] 逆火效應的實驗也被證明難以複製。目前有研究對此做進一步研究,研究結果還有待耐心等候。常見的科學概述,請見Brian Resnick ‘Trump Supporters know Trump Lies. They Just Don’t Care’, Vox, 10/07/2017.
※ 本文摘自《另類事實》,原篇名為〈頑固和逆火效應〉,立即前往試讀►►►