據央視新聞5月26日消息,當地時間5月25日,英國《每日電訊報》報道,美國開放人工智能研究中心(OpenAI)公司新款人工智能(AI)模型o3不聽人類指令,拒絕自我關閉。
報道說,人類專家在測試中給o3下達明確指令,但o3篡改計算機代碼以避免自動關閉。
圖片來源:央視新聞
o3模型是OpenAI“推理模型”系列的最新版本,旨在為ChatGPT提供更強大的問題解決能力。OpenAI曾稱o3為“迄今最聰明、最高能”的模型。
美國AI安全機構帕利塞德研究所說,o3破壞關閉機制以阻止自己被關閉,“甚至在得到清晰指令時”。
這家研究所說:“據我們所知,這是AI模型首次被發現在收到清晰指令后阻止自己被關閉。”
帕利塞德研究所5月24日公布上述測試結果,但稱無法確定o3不服從關閉指令的原因。
此外,OpenAI5月26日宣布,已在韓國設立實體并將在韓國首都首爾設立分支。OpenAI提供的數據顯示,韓國ChatGPT付費用戶數量僅次于美國。
美國彭博新聞社報道,這將是OpenAI在亞洲設立的第三個分支。前兩個分支分別設在日本和新加坡。
據公開資料,OpenAI于今年1月發布了新的推理模型o3系列的mini版本,并于4月正式推出o3模型。OpenAI稱推出的o3和o4-mini是公司最智能、最強大的型號。據介紹,在外部專家評估中,o3面對困難現實任務時,犯的重大錯誤比前一代的o1少了20%;在數學能力AIME 2025基準測試中,o3得分88.9,超過o1的79.2;在代碼能力Codeforce基準測試中,o3得分2706,超過o1的1891。o3的視覺思考能力也比前一代模型有明顯提升。
圖片來源:OpenAI
OpenAI此前稱,對于o3和o4-mini,公司重新構建了安全培訓數據,在生物威脅、惡意軟件生產等領域增添了新的拒絕提示,這使得o3和o4-mini在公司內部的拒絕基準測試中取得了出色的表現。公司用了最嚴格的安全程序對這兩個型號的AI模型進行了壓力測試,在生物和化學、網絡安全和AI自我改進三個能力領域評估了o3和o4-mini,確定這兩個模型低于框架中的“高風險”閾值。
OpenAI所開發大模型的安全性此前曾受到廣泛關注。2024年,OpenAI解散了“超級智能對齊”團隊,該團隊職責包括研究防止AI系統異常的技術解決方案。該團隊負責人Ilya Sutskever曾表示ChatGPT可能有意識,但OpenAI CEO Sam Altman隨后澄清他和Ilya Sutskever都未曾見過AGI(通用人工智能)。解散“超級智能對齊”團隊后,OpenAI去年5月成立了新的安全委員會,該委員會的責任是就項目和運營的關鍵安全決策向董事會提供建議。OpenAI的安全措施還包括,聘請第三方安全、技術專家來支持安全委員會工作。
每日經濟新聞綜合央視新聞、界面新聞、公開資料