IT之家 12 月 20 日消息,科技媒體 9to5Mac 今天(12 月 20 日)發布博文,報道稱蘋果攜手普渡大學,為徹底解決極低光照環境下的拍攝難題,聯合開發了一項名為 DarkDiff 的全新 AI 技術。
IT之家援引博文介紹,在極低光照條件下,手機拍攝的照片往往充滿噪點。為了掩蓋這些噪點,傳統算法通常會進行過度平滑處理,導致照片丟失細節,呈現出類似“油畫”的涂抹感。
蘋果與普渡大學的研究團隊為解決這一頑疾,推出了一種名為“DarkDiff”的新型 AI 模型。該研究并未沿用傳統的后期修圖思路,而是開創性地將預訓練的生成式擴散模型“重新指派”給相機的圖像信號處理(ISP)流程,從源頭提升畫質。

DarkDiff 的核心創新在于介入時機,不同于在成像后才進行 AI 修補,DarkDiff 在相機 ISP 處理原始傳感器數據(Raw Data)的早期階段就已介入。
ISP 負責白平衡和去馬賽克等基礎處理,生成線性 RGB 圖像后,DarkDiff 隨即接手進行降噪和細節生成。這種深度集成,讓 AI 能夠理解照片在黑暗區域應有的紋理細節,而非簡單地模糊像素。

生成式 AI 常因“幻覺”問題而篡改畫面內容(如無中生有地生成物體)。為防止此類情況,DarkDiff 引入了“局部圖像塊注意力機制”。
該機制強制模型關注圖像的局部結構,確保 AI 在增強細節的同時,嚴格忠實于原始場景。此外,研究人員還使用了“無分類器引導”技術,通過調節引導強度,在平滑度與銳利度之間找到最佳平衡,避免生成偽影。
研究人員為了驗證效果,使用了索尼 A7SII 相機在極暗環境下拍攝測試樣本,曝光時間短至 0.033 秒。將 DarkDiff 處理后的圖像與使用三腳架長曝光(時長為測試圖 300 倍)拍攝的參考圖進行對比,結果顯示 DarkDiff 在色彩還原和細節清晰度上均優于現有的 Raw 增強模型。
盡管效果驚人,但 DarkDiff 距離量產仍有距離。研究人員坦言,該技術的處理速度遠慢于傳統算法,且巨大的算力需求若在手機本地運行將極快耗盡電池,未來可能需要依托云端處理。
此外,模型在識別低光場景下的非英文文本時仍存在局限,該研究目前更多展示了蘋果在計算攝影領域的探索方向,短期內未必會直接裝載于新款 iPhone。










京公網安備 11011402013531號