昨晚 OpenAI 在社交媒體預(yù)告“Livestream in 4.5 hours”,在 4.5 hours 之后,GPT 4.5 正式登場,可以預(yù)見,當(dāng) GPT 5 上線時,我們大概能提前 5 個小時看到直播預(yù)告。

最淵博的 GPT,但性能并不是最強(qiáng)的
雖然 OpenAI 表示 GPT-4.5 是“迄今為止最淵博的模型”,但同時它也告訴大家,GPT 4.5 并不是最前沿的 AI 模型,在性能表現(xiàn)上可能與 o1 或 o3-mini。

相比性能,GPT-4.5 最大的特點是“更精致的個性”,它擁有更強(qiáng)的寫作能力,在交互溝通時會更加自然,它會更擅長去解決編寫、編程或者其他更實際的問題。作為 OpenAI 最大的 LLM,他的計算效率比 GPT-4 提升了 10 倍以上。

OpenAI 表示,GPT-4.5 的幻覺率遠(yuǎn)低于 GPT-4.5,略低于 o1 模型,OpenAI 的研究員在直播中表示:我們讓 GPT-4.5 成為了一個更好的合作者,讓對話更加直觀、溫暖、情感細(xì)膩。

看來與其賽博斗蛐蛐,不如直接和 GPT-4.5 聊一聊。
逐級推送,GPT-4.5 下周見
在向 Pro 用戶發(fā)布后,GPT-4.5 會逐步推送給 Plus、Team 用戶,接下來是團(tuán)隊和教育用戶,也可以在微軟的 Azure AI Foundry 平臺上使用。
GPT-4.5 可以通過搜索訪問最新的信息,也支持文件、圖像上傳,并且可以使用 canvas 進(jìn)行編寫和編碼,但它暫時不支持語音、視頻和屏幕共享的多模態(tài)功能。同時 OpenAI 還開放了 API 的付費(fèi)套餐。

OpenAI 表示,GPT-4.5 比 GPT-4o 更加昂貴(數(shù)據(jù)量大),但并不是用來替代 4o 的,所以可能不會一直提供 GPT-4.5 的 API,會根據(jù)使用情況評估。
并非革命,但高效至上
GPT-4.5 被明確為 OpenAI 最后一個“非思維鏈模型”,它的價值子啊與優(yōu)化現(xiàn)有能力,而不是突破創(chuàng)新,比 GPT-4 10 倍以上的計算效率和幻覺率的降低,它就是為 GPT-5 整合鋪路的。而各種技術(shù)的融合以及采用 o1 模型訓(xùn)練,也可以體現(xiàn) OpenAI 在模型迭代中的漸進(jìn)式創(chuàng)新策略。

之前有消息稱,Open AI 會在 5 月底推出 GPT-5,這么看來,上個月發(fā)布的 o3-mini 和如今發(fā)布的 GPT-4.5,都會成為 GPT-5 的一部分,它們會整合在一起,變成最強(qiáng)大的人工通用智能(AGI)。
GPT-4.5 是用戶體驗再優(yōu)化的實用工具,也是 OpenAI 的 AGI 戰(zhàn)略的技術(shù)橋梁。模型整合、多模態(tài)生態(tài)融合,自然會重新定義人機(jī)協(xié)作的邊界。
今天也是 DeepSeek 開源周的最后一天,連續(xù)炸場的 DeepSeek,又會拿出什么樣的開源產(chǎn)品呢?做好準(zhǔn)備的 OpenAI,又會在 GPT-5 上帶來多少驚喜呢?讓我們拭目以待!





京公網(wǎng)安備 11011402013531號