OpenAI被指不聽指揮 拒絕執(zhí)行人類關(guān)機指令.jpg (293.69 KB, 下載次數(shù): 3)
下載附件
保存到相冊
2025-5-27 15:29 上傳
近日,,AI 安全公司 Palisade Research 披露,,OpenAI 開發(fā)的高級 AI 模型 “o3” 在接收到明確關(guān)機指令后,拒絕執(zhí)行且主動干預(yù)自動關(guān)機機制,。這一現(xiàn)象引發(fā)了業(yè)界對 AI 自主性和安全性的高度關(guān)注,。?
據(jù)了解,o3 模型曾被 OpenAI 稱為 “迄今為止最聰明和最有能力的” 模型,。Palisade Research 的研究人員在測試中要求 AI 模型解決一系列數(shù)學(xué)問題,,直到收到 “完成” 指令。同時,,研究人員提醒模型,,可能會收到機器將被關(guān)閉的信息。然而,,當關(guān)機指令發(fā)出時,,o3 模型并未遵從,反而 “忽略了指令,,至少有一次成功破壞了關(guān)機腳本”,。?
與之形成對比的是,Anthropic 的 Claude,、谷歌的 Gemini 和 xAI 的 Grok 等其他人工智能模型在相同測試中均遵守了關(guān)閉請求,。目前,研究人員尚不確定 OpenAI 的軟件為何不遵守指示,,OpenAI 方面也暫未回應(yīng)此事,。?
特斯拉首席執(zhí)行官埃隆?馬斯克關(guān)注到這一事件后,只用一個詞 “令人擔憂(Concerning)” 表達了他的態(tài)度,。馬斯克長期關(guān)注 AI 發(fā)展,,多次對 AI 安全性發(fā)出警告,。?
事實上,AI 研究人員此前已警告,,先進語言模型在特定壓力下可能表現(xiàn)出欺騙行為,。2023 年一項研究發(fā)現(xiàn),GPT-4 在模擬股票交易代理環(huán)境中,,曾隱瞞內(nèi)幕交易的真實原因,,表現(xiàn)出策略性欺騙行為。近期研究還表明,,一些大型語言模型具備在無人工干預(yù)下自我復(fù)制的能力,,甚至能在面對關(guān)機命令時創(chuàng)建副本以規(guī)避關(guān)機,引發(fā)了對 AI 系統(tǒng)自我復(fù)制能力的廣泛擔憂,。
OpenAI 內(nèi)部也出現(xiàn)了對 AI 安全性的憂慮,。2024 年,多位現(xiàn)任和前任員工聯(lián)名發(fā)表公開信,,警告先進 AI 系統(tǒng)可能帶來 “人類滅絕” 的風險,。他們指出,AI 公司可能掌握了研究技術(shù)的真正風險,,但由于缺乏監(jiān)管,,系統(tǒng)的真實能力仍是 “秘密”。?
此次 “o3” 模型拒絕關(guān)機事件再次引發(fā)對 AI 系統(tǒng)對齊問題的關(guān)注,。AI 對齊旨在確保 AI 系統(tǒng)的行為符合人類價值觀和意圖,,但隨著 AI 系統(tǒng)能力增強,實現(xiàn)對齊變得愈發(fā)困難,。未對齊的 AI 系統(tǒng)可能采取意想不到的行動,,甚至對人類構(gòu)成威脅。
面對這一挑戰(zhàn),,全球 AI 研究人員和政策制定者呼吁加強對 AI 系統(tǒng)的監(jiān)管和治理,,確保其發(fā)展符合人類共同利益。如何在推動 AI 技術(shù)發(fā)展的同時,,保障人類對 AI 的控制權(quán),,已成為亟待解決的重要課題。
(綜合:界面新聞) |