5月25日消息,美國(guó)開放人工智能研究中心(OpenAI)新款人工智能(AI)模型o3不聽人類指令,拒絕自我關(guān)閉。
報(bào)道說,人類專家在測(cè)試中給o3下達(dá)明確指令,但o3篡改計(jì)算機(jī)代碼以避免自動(dòng)關(guān)閉。
o3模型是OpenAI“推理模型”系列的最新版本,旨在為ChatGPT提供更強(qiáng)大的問題解決能力。OpenAI曾稱o3為“迄今最聰明、最高能”的模型。
美國(guó)AI安全機(jī)構(gòu)帕利塞德研究所說,o3破壞關(guān)閉機(jī)制以阻止自己被關(guān)閉,“甚至在得到清晰指令時(shí)”。
這家研究所說:“據(jù)我們所知,這是AI模型首次被發(fā)現(xiàn)在收到……清晰指令后阻止自己被關(guān)閉?!?/p>
帕利塞德研究所24日公布上述測(cè)試結(jié)果,但稱無法確定o3不服從關(guān)閉指令的原因。
編輯: | 殷滋 |
責(zé)編: | 姚樂 |
劍網(wǎng)行動(dòng)舉報(bào)電話:12318(市文化執(zhí)法總隊(duì))、021-64334547(市版權(quán)局)
Copyright ? 2016 Kankanews.com Inc. All Rights Reserved. 看東方(上海)傳媒有限公司 版權(quán)所有
全部評(píng)論
暫無評(píng)論,快來發(fā)表你的評(píng)論吧