(AI云資訊消息)微軟人工智能部門8月28日宣布推出首批自研AI模型:MAI-Voice-1語音模型與MAI-1預覽版。微軟表示,全新MAI-Voice-1語音模型僅需單塊GPU即可在1秒內生成長達1分鐘的音頻,而MAI-1預覽版則展現(xiàn)了Copilot未來功能的發(fā)展方向。
微軟已將MAI-Voice-1語音模型應用于多項功能:Copilot Daily欄目通過AI主播播報當日重磅新聞,并生成播客式討論內容以輔助解釋各類主題。
用戶現(xiàn)可通過Copilot Labs親身體驗MAI-Voice-1語音模型:只需輸入期望AI表達的內容,即可自定義語音風格與說話方式。除了語音模型外,微軟還同步推出了基于約1.5萬塊英偉達H100 GPU訓練的MAI-1預覽版,預覽模型專為需要AI遵循指令并對日常查詢提供有用回應的用戶群體打造。
微軟人工智能負責人穆斯塔法·蘇萊曼(Mustafa Suleyman)去年在播客節(jié)目中表示,公司內部開發(fā)的AI模型并非專注于企業(yè)用例。蘇萊曼強調:"我的邏輯是必須打造對消費者極致適用的產品,并真正為我們的使用場景優(yōu)化。我們在廣告端和用戶遙測數(shù)據(jù)等領域擁有大量極具預測價值的實用數(shù)據(jù)。我的重點是構建真正適用于消費級伴侶場景的模型。"
微軟人工智能部門計劃在Copilot助手特定文本場景中部署MAI-1預覽版,該產品目前仍基于OpenAI的大型語言模型。微軟已開始在AI基準測試平臺LMArena上公開測試MAI-1預覽版模型。
微軟人工智能部門在博文中表示:"我們對未來的發(fā)展懷有宏偉藍圖。不僅將持續(xù)推動技術進步,更堅信通過協(xié)調服務于不同用戶意圖和使用場景的系列專業(yè)化模型,將釋放巨大價值。"





京公網(wǎng)安備 11011402013531號