一款針對離線渲染的基於Nvidia Optix的AI加速降噪工具
05-15
Optix是Nvidia推出的一款高性能GPU光線追蹤工具包。筆者開發的本工具使用了其中的基於深度學習的降噪技術,相關技術細節可以訪問官網:
NVIDIA? OptiX? AI-Accelerated DenoiserThe AI-accelerated denoiser was trained using tens of thousands of images rendered from one thousand 3D scenes.
這個AI加速的降噪演算法是由來自數千個3D場景的數萬張渲染圖像訓練的,開發這個工具主要完成了三件事:
- 使用DevIL圖像庫實現了多格式支持
- 對接Optix SDK的降噪演算法介面,對讀取的圖像進行降噪
- C#的GUI實現了單一圖像以及多圖像的批量操作
在C4D中搭建康奈爾盒子測試降噪效果,渲染器為OctaneRender 3.07R2,參數如下
- 採樣數為8,64,512
- 漫射與反射深度均為5
- 線性tonemap (gamma = 1.0)
經過測試,64採樣的圖像通過降噪可以獲得接近512採樣的圖像,降噪演算法本身在中端顯卡上只需要數百毫秒的計算時間,合理降低採樣數,結合本工具降噪能極大的減少渲染時間。
諸如Bloom,DoF等後處理特效可能會影響神經網路對雜訊的判斷,而無法正常降噪,所以盡量在降噪後進行後處理。
GitHub
工具下載鏈接(Onedrive)
推薦閱讀: