當(dāng)?shù)貢r(shí)間13日,美國(guó)人工智能公司“開放人工智能研究中心”(OpenAI)宣布,將推出一款名為GPT-4o的新款人工智能模型,并免費(fèi)向用戶開放使用。
在發(fā)布會(huì)上,OpenAI首席技術(shù)官穆拉蒂表示GPT-4o在多模態(tài)方面非常強(qiáng)大,基于來(lái)自互聯(lián)網(wǎng)的大量數(shù)據(jù)展開訓(xùn)練,并改進(jìn)了文本、圖像和音頻方面的能力。這款模型能以這三者任意組合的形式輸入和輸出,交互方式更多樣、更自然,并且支持50種語(yǔ)言。
GPT-4o在語(yǔ)音對(duì)話時(shí)平均響應(yīng)時(shí)長(zhǎng)僅有320毫秒,與人類近似,而此前ChatGPT語(yǔ)音對(duì)話的平均延遲為2.8到5.4秒。此外,新模型在對(duì)話時(shí),用戶可以隨時(shí)打斷。
OpenAI還表示,新模型性能更強(qiáng),接口調(diào)用價(jià)格卻只有此前模型的一半。所有用戶都可以免費(fèi)使用,不過(guò)消息數(shù)量會(huì)受到限制。預(yù)計(jì)新模型各項(xiàng)功能會(huì)在未來(lái)幾周逐步推出。
不過(guò),有業(yè)內(nèi)人士表示,盡管GPT-4o在多模態(tài)功能上有所提升,但OpenAI并未展示出真正的視覺多模態(tài)突破功能。
編輯: | 張夢(mèng)薇 |
責(zé)編: | 劉圣韜 |
劍網(wǎng)行動(dòng)舉報(bào)電話:12318(市文化執(zhí)法總隊(duì))、021-64334547(市版權(quán)局)
Copyright ? 2016 Kankanews.com Inc. All Rights Reserved. 看東方(上海)傳媒有限公司 版權(quán)所有
全部評(píng)論
暫無(wú)評(píng)論,快來(lái)發(fā)表你的評(píng)論吧