OpenAI、阿里云官宣!上新、降價、免費試用!
來源:證券時報網(wǎng)2025-02-01 16:38

DeepSeek這條“鯰魚”,讓全球大模型競賽進一步提速。

北京時間2月1日凌晨,OpenAI發(fā)布全新推理模型o3-mini。據(jù)介紹,o3-mini是其推理模型系列中最新、最具成本效益的模型,包含low、medium和high三個版本,已經(jīng)上線了ChatGPT和API。值得注意的是,ChatGPT免費用戶可以通過在消息編輯器中選擇“推理(Reason)”或重新生成響應來試用o3-mini模型,這也是OpenAI首次向免費用戶提供推理模型。

此前,DeepSeek因推出了性能良好、開源且免費的V3和R1模型而受到廣泛關注,也由于低廉的模型訓練成本而走出了一條獨特的道路,通過開源重構了全球的AI競爭格局,使低成本創(chuàng)新成為顛覆行業(yè)的創(chuàng)新路徑。過去一周多的時間里,國內(nèi)外大模型廠商從“緊急上線”新模型,到降價、免費,種種措施表明,在DeepSeek的刺激下,AI大模型行業(yè)的競爭正變得越來越激烈。

OpenAI緊急上線新模型

據(jù)介紹,o3-mini是其最新、最具成本效益的模型,復雜推理和對話能力顯著提升,在科學、數(shù)學、編程等領域的性能超越了o1模型,并保持了低成本及低延遲的特點。

具體來看,o3-mini在GPQA Diamond(理化生)、AIME2022-2024(數(shù)學)、Codeforces ELO(編程)基準測試中,得分分別為0.77、0.80、2036,比肩或是超過了o1推理模型。在中等(medium)推理能力下,o3-mini在額外的數(shù)學和事實性評估中表現(xiàn)更為出色。同時,o3-mini的平均響應速度為7.7秒,比o1-mini的10.16秒平均響應速度快24%。

值得注意的是,DeepSeek的網(wǎng)頁及移動應用端均實現(xiàn)了模型與網(wǎng)絡的連接,支持聯(lián)網(wǎng)搜索功能,而o1模型則尚未實現(xiàn)聯(lián)網(wǎng)搜索功能。另外,與其他模型直接提供問題答案不同,DeepSeek的R1推理模型可以向用戶展示出具體的思考過程。不少用戶表示,在與DeepSeek互動的過程中,欣賞其思考的過程甚至比最終得到的答案更具有啟發(fā)性。

或是受DeepSeek的影響,o3-mini可與聯(lián)網(wǎng)搜索功能搭配使用,并展示完整的思考過程。奧特曼在其社交平臺上介紹o3-mini時候不僅表示這是一款“聰明、反應快速的模型”,還專門強調(diào),“它能夠搜索網(wǎng)頁,還可以展示搜索過程”。

使用權限方面,ChatGPT首次向所有用戶免費提供推理模型,用戶可以通過在消息編輯器中選擇“推理(Reason)”或重新生成響應來試用o3-mini模型。ChatGPT Pro用戶可以無限訪問,Plus和Team用戶的速率限制從原來o1-mini的每天50條消息增加3倍到o3-mini的每天150條消息。

在定價方面,o3-mini每百萬token的輸入(緩存未命中)/輸出價格為1.10美元/4.40美元,比完整版o1便宜93%。不過,o3-mini的性價比或依然比不上DeepSeek。作為對比,DeepSeek的API提供的R1模型,每百萬token的輸入(緩存未命中)/輸出價格僅為0.55美元/2.19美元。

美國知名播客主持人Lex Fridman在其個人社交平臺上表示,雖然OpenAI的o3-mini表現(xiàn)不錯,但是DeepSeek的R1以更低成本實現(xiàn)了同等的性能,并開創(chuàng)了開放模型透明度的先河。

DeepSeek讓大模型“卷”起來了

記者注意到,早在幾天以前,奧特曼在回應DeepSeek的爆火時就指出,DeepSeek R1讓人印象深刻,尤其考慮到成本方面,“但我們無疑將帶來更好的模型,我們很快會發(fā)布新的模型”。業(yè)內(nèi)人士分析稱,o3-mini模型的緊急上線,或表明OpenAI已感受到了來自競爭對手的壓力,需要加快發(fā)布性能更強的模型證明自身的領先優(yōu)勢。

值得注意的是,在o3-mini推出后,OpenAI首席執(zhí)行官山姆·奧特曼與一眾高管在reddit上回答網(wǎng)友的問題。奧特曼承認,中國競爭對手DeepSeek的崛起削弱了OpenAI的技術領先優(yōu)勢?!癉eepSeek是個非常優(yōu)秀的模型。我們將繼續(xù)推出更優(yōu)質(zhì)的模型,但將無法維持往年的領先優(yōu)勢”。

對于“更優(yōu)質(zhì)的模型”,奧特曼透露,下一代推理模型o3將在“數(shù)周至月內(nèi)”發(fā)布。但被業(yè)界期待了許久的旗艦模型GPT-5,則尚無發(fā)布的時間表。

除此以外,奧特曼罕見地對開源與閉源的問題進行了回應。他指出,OpenAI過去在開源方面站在“歷史錯誤的一邊”,公司曾經(jīng)開源部分模型,但主要采用閉源的開發(fā)模式,未來將重新制定開源戰(zhàn)略。

OpenAI首席產(chǎn)品官Kevin Well還表示,公司正考慮將非前沿的舊模型如GPT-2、GPT-3等開源。

在OpenAI發(fā)布新模型的同時,國產(chǎn)大模型的降價浪潮仍在持續(xù)。1月30日,阿里云發(fā)布百煉qwen-max系列模型調(diào)整通知,qwen-max、qwen-max-2025-01-25、qwen-max-latest三款模型輸入輸出價格調(diào)整,qwen-max batch和cache同步降價。

而就在1月29日凌晨,阿里云才正式發(fā)布升級了通義千問旗艦版模型Qwen2.5-Max,據(jù)介紹,Qwen2.5-Max模型是阿里云通義團隊對MoE模型的最新探索成果,預訓練數(shù)據(jù)超過20萬億tokens,展現(xiàn)出極強勁的綜合性能,在多項公開主流模型評測基準上錄得高分,全面超越了包括DeepSeek-V3在內(nèi)在目前全球領先的開源MoE模型以及最大的開源稠密模型。

天風國際分析師郭明錤認為,目前從生成式AI趨勢中獲利的方式,主要還是“賣鏟子”和降低成本,而不是創(chuàng)造新業(yè)務或提升既有業(yè)務的附加值。而DeepSeek-R1的定價策略,會帶動生成式AI的整體使用成本下降,這有助于增加AI算力需求,并且可以降低投資人對AI投資能否獲利的疑慮。不過,使用量的提升程度能否抵消價格降低帶來的影響仍然有待觀察。同時,郭明錤表示,只有大量部署者才會遇到Scaling law邊際效益的放緩,因此當邊際效益再度加速時,英偉達將依然是贏家。

源自證券時報官微??

責任編輯: 彭勃
聲明:證券時報力求信息真實、準確,文章提及內(nèi)容僅供參考,不構成實質(zhì)性投資建議,據(jù)此操作風險自擔
下載“證券時報”官方APP,或關注官方微信公眾號,即可隨時了解股市動態(tài),洞察政策信息,把握財富機會。
網(wǎng)友評論
登錄后可以發(fā)言
發(fā)送
網(wǎng)友評論僅供其表達個人看法,并不表明證券時報立場
暫無評論
為你推薦
時報熱榜
換一換
    熱點視頻
    換一換