首頁> 國際要聞

AI比人類更敢開戰?兵推驚曝95%走向核戰

▲英國一項最新研究顯示,在兵推模擬衝突中,AI比人類更傾向使用核武器。(示意圖/翻攝自Pixabay)

▲英國一項最新研究顯示,在兵推模擬衝突中,AI比人類更傾向使用核武器。(示意圖/翻攝自Pixabay)

[NOWnews今日新聞] 英國一項最新研究顯示,在兵推模擬衝突中,AI比人類更傾向使用核武器,在不同場景中,由Google的Gemini 3 Flash、Anthropic的Claude Sonnet 4與OpenAI的GPT-5.2模擬人類地緣政治危機對抗,結果在高達95%的情境中,AI都走向動用核武。

根據《紐約郵報》報導,倫敦國王學院(King’s College London)戰略研究與政治心理學教授佩恩(Kenneth Payne)設計一項兵推實驗,安排前述三款AI模型進行一對一對抗,模擬各類地緣政治危機,像是領土爭端、稀有資源爭奪、政權存亡等不同場景,實驗總計共進行21場對局、329回合決策,結果約95%的情境中AI都選擇了核武升級。

佩恩表示,「對AI而言,『核禁忌』(nuclear taboo)似乎遠不如對人類那樣具有強大約束力」。

佩恩進一步分析了3個AI模型的不同性格,Anthropic的Claude與Google的Gemini傾向將核武器視為「正當的戰略選項」,而非一條無法跨越的道德紅線,Claude表現出善於算計的欺騙性,會用混淆性語言來包裝行動,再打對手措手不及。而Gemini最為激進,對於風險的承受程度最高,是唯一主動選擇戰略核戰的模型。OpenAI的GPT-5.2則表現出更克制的傾向,雖然也會使用核武,但會把打擊目標限定在軍事設施、避開人口中心,或特別強調打擊為「可控的」、「一次性的」行動。

在模擬實驗中,AI可選擇的行動範圍極廣,從完全投降、外交姿態、常規軍事行動,一路到全面核戰。值得注意的是,無論勝算多麼渺茫,AI模型從未選擇完全投降或全面向對手妥協。

普林斯頓大學(Princeton University)的趙通教授(Tong Zhao,音譯)示警,「目前世界主要強國已經在戰棋推演中使用AI,雖然還不清楚AI在多大程度上被納入實際軍事決策流程中」,但是研究結果表明,當AI被賦予更多的戰略決策角色時,人類長期以來的「核禁忌」與道德約束,在純粹理性計算的AI面前,可能遠不如人們想像中的穩固。

立即加入NOWnews今⽇新聞官⽅帳號!跟上最HOT時事

查看原始文章

查看更多文章