OpenAI被指不聽指揮 拒絕執(zhí)行人類關機指令.jpg (293.69 KB, 下載次數(shù): 3)
下載附件
保存到相冊
2025-5-27 15:29 上傳
近日,AI 安全公司 Palisade Research 披露,,OpenAI 開發(fā)的高級 AI 模型 “o3” 在接收到明確關機指令后,,拒絕執(zhí)行且主動干預自動關機機制。這一現(xiàn)象引發(fā)了業(yè)界對 AI 自主性和安全性的高度關注,。?
據(jù)了解,,o3 模型曾被 OpenAI 稱為 “迄今為止最聰明和最有能力的” 模型。Palisade Research 的研究人員在測試中要求 AI 模型解決一系列數(shù)學問題,,直到收到 “完成” 指令,。同時,研究人員提醒模型,,可能會收到機器將被關閉的信息,。然而,當關機指令發(fā)出時,,o3 模型并未遵從,,反而 “忽略了指令,,至少有一次成功破壞了關機腳本”。?
與之形成對比的是,,Anthropic 的 Claude,、谷歌的 Gemini 和 xAI 的 Grok 等其他人工智能模型在相同測試中均遵守了關閉請求。目前,,研究人員尚不確定 OpenAI 的軟件為何不遵守指示,,OpenAI 方面也暫未回應此事。?
特斯拉首席執(zhí)行官埃隆?馬斯克關注到這一事件后,,只用一個詞 “令人擔憂(Concerning)” 表達了他的態(tài)度,。馬斯克長期關注 AI 發(fā)展,多次對 AI 安全性發(fā)出警告,。?
事實上,,AI 研究人員此前已警告,先進語言模型在特定壓力下可能表現(xiàn)出欺騙行為,。2023 年一項研究發(fā)現(xiàn),,GPT-4 在模擬股票交易代理環(huán)境中,曾隱瞞內(nèi)幕交易的真實原因,,表現(xiàn)出策略性欺騙行為,。近期研究還表明,一些大型語言模型具備在無人工干預下自我復制的能力,,甚至能在面對關機命令時創(chuàng)建副本以規(guī)避關機,,引發(fā)了對 AI 系統(tǒng)自我復制能力的廣泛擔憂。
OpenAI 內(nèi)部也出現(xiàn)了對 AI 安全性的憂慮,。2024 年,,多位現(xiàn)任和前任員工聯(lián)名發(fā)表公開信,警告先進 AI 系統(tǒng)可能帶來 “人類滅絕” 的風險,。他們指出,,AI 公司可能掌握了研究技術的真正風險,但由于缺乏監(jiān)管,,系統(tǒng)的真實能力仍是 “秘密”,。?
此次 “o3” 模型拒絕關機事件再次引發(fā)對 AI 系統(tǒng)對齊問題的關注。AI 對齊旨在確保 AI 系統(tǒng)的行為符合人類價值觀和意圖,,但隨著 AI 系統(tǒng)能力增強,,實現(xiàn)對齊變得愈發(fā)困難。未對齊的 AI 系統(tǒng)可能采取意想不到的行動,,甚至對人類構成威脅,。
面對這一挑戰(zhàn),全球 AI 研究人員和政策制定者呼吁加強對 AI 系統(tǒng)的監(jiān)管和治理,,確保其發(fā)展符合人類共同利益,。如何在推動 AI 技術發(fā)展的同時,,保障人類對 AI 的控制權,已成為亟待解決的重要課題,。
(綜合:界面新聞) |