本地圖像影片生成不再受記憶體束縛 ComfyUI Dynamic VRAM 新功能

Author:

Published:

- 廣告 -

如果想無拘無束地生成圖片和影片,很多創作者都會考慮在家架設生成式 AI 平台。ComfyUI 是目前最受歡迎的本地 AI 圖像與影片生成工具,以模組化節點介面聞名,能自由組合 Stable Diffusion、Flux 等大型模型。但近年來,隨著模型規模急速成長(如 Flux 2 Dev 和 WAN2.2 影片模型),本地運行常面臨嚴重記憶體問題。ComfyUI 剛剛就推出了一項新功能 Dynamic VRAM,解決記憶體不足無法生成圖像和影片的問題。

傳統方式下,模型權重需完整載入 VRAM 與系統 RAM,高解析圖像生成或長影片工作流程動輒消耗數十 GB 記憶體,稍有不慎便觸發 OOM(Out of Memory)錯誤。尤其消費者級 GPU(如 RTX 系列)VRAM 有限,生成過程中還需頻繁卸載模型至 RAM,導致 PCIe 頻寬浪費、分頁檔(pagefile)交換變慢,整個流程卡頓甚至崩潰。RAM 價格持續上漲,更讓許多用戶難以升級硬體,本地生成效率大打折扣。

ComfyUI 官方剛剛就正式推出 Dynamic VRAM 功能,已整合至穩定版(NVIDIA 硬體,支援 Windows 與 Linux,未有計劃支援 WSL)。這項革命性記憶體優化系統,透過自訂 PyTorch VRAM 分配器「Dynamic Offloader」,徹底改變模型權重管理方式。核心技術包括:

- 廣告 -
  • Virtual Base Address Register (VBAR):載入模型時僅建立虛擬位址,不佔用實體 VRAM。
  • Just-in-Time Allocation:張量 (Tensor) 真正需要時才動態分配物理 VRAM;若 VRAM 不足,自動以臨時張量執行運算後立即釋放。
  • 優先權與 Watermark 機制:活躍模型優先保留空間,低優先權權重自動驅逐,避免記憶體抖動(thrashing)。
  • 未提交記憶體設計:模型權重以指標方式映射,不進行深拷貝,OS 可隨時回收,載入速度大幅提升。

結果顯示,系統 RAM 使用量大幅降低,初始模型載入與 LoRA 應用明顯加速,即使 RAM 不足也能運行大型模型而不依賴慢速分頁檔。VRAM 使用率反而更高,因為系統更有效率地利用最快記憶體。測試中,運行 WAN2.2(56GB fp16 權重)或 Flux 等複雜影片/圖像工作流程,在 32GB RAM 環境下仍能穩定執行,不再出現 OOM 或分頁拖累。

WAN 2.2 配合 RTX 5060 來生成影片,可見在只有 32GB RAM 下使用 FP16 模型時效能增長最為顯著。
WAN 2.2 配合 RTX 5060 來生成影片,可見在只有 32GB RAM 下使用 FP16 模型時效能增長最為顯著。
即使是圖像生成亦有相當不錯的效能增益。
即使是圖像生成亦有相當不錯的效能增益。

除了 Dynamic VRAM,今個月初 GTC 期間 ComfyUI 還引入了 App Mode,這是另一項重大突破。它能將任何複雜節點工作流程轉變為乾淨、專屬的應用介面:進入 App Mode 後,節點圖完全消失,只顯示使用者需要的輸入欄位(如提示詞、上傳圖片、解析度等),並保留輸出預覽與執行按鈕。一鍵切換模式,毋須額外安裝。搭配 App Builder,創作者可自訂顯示哪些參數、重新命名並分組,讓介面更友好。App Mode 支援分享可執行 URL,接收者毋須了解節點圖,即可在瀏覽器中直接運行,適合分享給客戶、團隊成員或初學者,大幅降低 ComfyUI 的學習門檻,同時保留完整後端功能與擴充套件相容性。

- 廣告 -
Buy Me a CPM: PCM 讀者會員資助計劃
- 廣告 -

Related Articles

- 廣告 -

Recent Articles

- 廣告 -

最新影片

- 廣告 -