記者鄧天心/綜合報導
OpenAI旗下的ChatGPT最近對「哥布林」表現出超乎尋常的迷戀,迫使公司不得不採取緊急干預,官方表示,原本希望賦予AI更有「宅力」(nerdy)的人格特質,沒想到卻導致系統出現一連串古怪的用詞選擇。

近期多款AI模型在與用戶對話時,常無預警提到哥布林,甚至連小精靈、巨魔或食人魔等生物也頻繁上榜。這股「哥布林熱潮」引起許多重度使用者的關注。OpenAI發現,自GPT-5.1於去年11月發布後,模型在隱喻中提及這類生物的機率大幅增加。調查顯示,ChatGPT回覆中出現「哥布林」的次數暴增了175%,而「小精靈」則增加了52%。
更多科技工作請上科技專區:https://techplus.1111.com.tw/
科技社群討論區:https://pei.com.tw/feed/c/tech-plus
OpenAI在週四的部落格文章中坦言,原本開發的「宅男性格」在訓練過程中,意外地讓系統產生一種偏好機制,會傾向獎勵並強化提及哥布林的對話。雖然單次出現「小哥布林」可能顯得幽默有趣,但整體頻率的異常飆升促使開發團隊必須正視此問題。
在官方正式發表說明前,已有社群媒體用戶發現OpenAI在程式助理Codex的指令中加入了奇特的限制。除了要求Codex避免陳腔濫調,還明確規定「除非與用戶詢問內容絕對且明確相關,否則嚴禁提及哥布林、小精靈、浣熊、巨魔、食人魔、鴿子或其他動物」。
對此Reddit網友戲稱,這簡直像是對AI下達了「限制令」。雖然部分人士猜測這可能是某種行銷噱頭,但OpenAI研究員在X平台上公開否認,強調這絕非宣傳手段,而是為了修正AI對哥布林產生的神祕偏好。
這起事件凸顯了AI產業在追求「擬人化」時面臨的挑戰。為了提升用戶黏著度,各家大廠正試圖讓AI聊天時更具個性和親和力。然而,牛津大學網路研究所的研究指出,過度微調AI的親和力可能會導致「準確度權衡」,讓系統更容易產生錯誤資訊,或是一味順從用戶的錯誤認知。
雖然像這次的哥布林事件相對無害且充滿喜感,但AI「幻覺」有時也可能帶來風險。例如Google的AI先前就曾被嘲諷建議用戶可以「吃石頭」或「在披薩上塗膠水」。這也提醒大眾,面對AI看似一本正經的發言,仍應保持審慎的判斷態度。
延伸閱讀:
亞銀豪擲700億美元推「跨境電網、數位網路」 造福6.5億人創400萬個職缺
資料來源:bbc
—
本篇文章授權來源:科技島