科技

明知AI會出錯 為何8成人類還是選擇相信?一文告訴你什麼是「認知投降」

記者彭夢竺/編譯

在大型語言模型(LLM)普及的時代,使用者大致可分為兩類,一類將AI視為強大但偶爾出錯的工具,需嚴格審核其回覆;另一類則將AI視為全知機器,習慣性地外包自己的批判性思考。最新研究為後者建立了一個心理學框架,稱之為「認知投降(Cognitive Surrender)」,揭示了人類為何以及何時會放棄自主思考。

「認知投降(Cognitive Surrender)」揭示了人類為何以及何時會放棄自主思考。(圖/AI生成)
「認知投降(Cognitive Surrender)」揭示了人類為何以及何時會放棄自主思考。(圖/AI生成)

從認知卸載到認知投降 AI改寫人類推理模式

賓州大學的研究團隊在《思考—快、慢與人工:AI如何重塑人類推理與認知投降的興起》報告中指出,人類決策通常分為「系統1(快速、直覺)」與「系統2(慢速、邏輯)」。然而,AI的出現創造了第三類「人工認知」,決策驅動力不再是人類大腦,而是演算法系統。

過去,人類使用計算機或GPS是一種「認知卸載(Cognitive Offloading)」,針對特定任務委託演算法,但仍保有監督意識。

但研究發現,AI引發了性質完全不同的「認知投降」,使用者僅提供最低限度的心理參與,全盤接受AI的推理。特別是當AI輸出流暢且充滿自信時,這種「不加批判地放棄推理」的情況更為普遍。

更多科技工作請上科技專區:https://techplus.1111.com.tw/
科技社群討論區:https://pei.com.tw/feed/c/tech-plus

驚人發現:明知AI會出錯,仍有80%人選擇相信

為了衡量此現象,研究人員使用了「認知反射測試(CRT)」,並提供一個故意設定為「50%機率給出錯誤答案」的AI助手。實驗結果顯示,當AI給出正確答案時,受試者接受其推理的比例為93%;令人震驚的是,即便AI給出隨機的「錯誤答案」,仍有80%的受試者選擇接受,顯示AI的存在頻繁地「取代了內部推理」。

更弔詭的是,使用AI的實驗組雖然在AI出錯時表現遠遜於僅靠大腦的對照組,但他們對自己答案的信心卻高出11.7%。研究人員指出,流暢且自信的輸出被視為具備「認識論上的權威」,降低了人類的審核門檻。

時間壓力與誘因的影響 影響人類查核意願

研究進一步探討了環境因素對「認知投降」的影響。

當提供正確答案可獲得獎金或即時回饋時,受試者糾正錯誤AI的機率增加了19個百分點,顯示明確的後果能鼓勵使用者花時間驗證。當面臨30秒的計時壓力時,糾正AI的機率下降了12個百分點。

這顯示當決策時間稀缺時,大腦內部的偵錯監控機制較難啟動。

高智商者較具防備心 認知投降成結構性脆弱

研究涵蓋1,372名參與者及超過9,500次試驗,總體而言,受試者接受錯誤AI推理的比例高達73.2%,而推翻錯誤AI的比例僅為19.7%。不過,這並非一成不變,流體智商(Fluid IQ)得分較高的人較不依賴AI,且更能識破錯誤;反之,預先認為AI具備權威性的人,則更容易被誤導。

儘管結果堪憂,研究人員也提到「認知投降」並非全然不理性,若AI系統在機率評估或大數據分析上確實優於人類,依賴AI確實能提升績效。

然而,這也暴露了一個結構性的脆弱點:當你讓AI代為思考,你的推理品質將完全受限於該AI系統的品質。專家呼籲,在享受AI便利之餘,使用者仍須時刻保持警覺。

資料來源:arstechnica

Loading

本篇文章授權來源:科技島

Author

Write A Comment