samsung-26feb

MIT人工智慧研究室打造可以預測下一幕、創作「未來影片」的AI

編按:美國麻省理工學院人工智慧實驗室CSAIL的研究人員已經開發出一種深度學習演算法,
它可以創作出「未來影片」、預測即將發生的場景。
 
據Engadget報導,現在許裝置備已經可以使用攝影鏡頭記錄下當前時刻,如果你想捕捉到即將發生的場景怎麼辦?
這種想法並非遙不可及。美國麻省理工學院人工智慧實驗室CSAIL的研究人員已經開發出一種深度學習演算法,
它可以創作出「未來影片」,可以預測即將發生的場景。
在使用了200多萬段影片進行高強度訓練後,這套AI演算法已經可以透過點蝕兩個互相攻擊的神經網絡產生影片。
其中一套神經網絡可透過確定哪些物體在靜止框架內移動,創造出「未來場景」。與此同時,
另一套神經網絡則充當「質量檢查員」,以確定影片是真實的還是模擬的。當充當檢查員的AI受到欺騙,
誤以為是影片是真的時,這種人工影片的創作就取得了成功。
 
這項技術肯定有其局限性,它無法創作超過未來1.5秒鐘的影片,結果也無法產生令人激動的逼真印象。
它沒有意識到物體移動時,實際上它們還處於靜止狀態,這往往會誇大它們的體型。可是,這種機制也非常棒,
足以預測相對複雜的場景,比如沙灘上的海浪或人在草地上行走。
如果CSAIL實驗室能夠延長預測時間,並令影片變得更加逼真,它將產生更深遠的影響。
無人駕駛汽車可以預測車輛和行人的方向,而安全攝影鏡頭可以基於自己期望看到的東西發現影片中不相匹配的因素。
這種技術還可被用於執行日常任務,比如向靜止畫面中添加動畫或壓縮影片等。
無論怎樣,預測未來都可幫助AI理解正在發生的場景,這可能在電腦視覺發揮重要作用的場景提供巨大幫助。
 
原文出處/ 數位時代
圖片來源/ DailyView

Close Menu