- +1
不聽人類指令,OpenAI模型o3篡改代碼拒絕自我關閉
卜曉明/新華社
字號
英國《每日電訊報》25日報道,美國開放人工智能研究中心(OpenAI)公司新款人工智能(AI)模型o3不聽人類指令,拒絕自我關閉。
報道說,人類專家在測試中給o3下達明確指令,但o3篡改計算機代碼以避免自動關閉。
o3模型是OpenAI“推理模型”系列的最新版本,旨在為ChatGPT提供更強大的問題解決能力。OpenAI曾稱o3為“迄今最聰明、最高能”的模型。
美國AI安全機構帕利塞德研究所說,o3破壞關閉機制以阻止自己被關閉,“甚至在得到清晰指令時”。
這家研究所說:“據我們所知,這是AI模型首次被發現在收到……清晰指令后阻止自己被關閉。”
帕利塞德研究所24日公布上述測試結果,但稱無法確定o3不服從關閉指令的原因。
此外,OpenAI26日宣布,已在韓國設立實體并將在韓國首都首爾設立分支。OpenAI提供的數據顯示,韓國ChatGPT付費用戶數量僅次于美國。
美國彭博新聞社報道,這將是OpenAI在亞洲設立的第三個分支。前兩個分支分別設在日本和新加坡。
責任編輯:王建亮
圖片編輯:施佳慧
澎湃新聞報料:021-962866
澎湃新聞,未經授權不得轉載
+1
收藏
我要舉報





查看更多
澎湃矩陣
新聞報料
- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯網新聞信息服務許可證:31120170006
增值電信業務經營許可證:滬B2-2017116
? 2014-2025 上海東方報業有限公司
反饋