--------點選螢幕右側或者螢幕底部“+訂閱”,關注我,随時分享機器智能最新行業動态及技術幹貨----------

這個視訊來自一位名叫“大谷Spitzer”的部落客,據他所說,接觸老片修複是一個偶然,整個項目也隻花了 7 天時間就順利完成了。
先來一起看看這驚人的修複效果。
👇老視訊👇
部落客在視訊最開始就說道,想用技術為社會做一些有意義的事情,懷着仰慕的心情,文摘菌聯系到了這位“大谷Spizer”,來看看他是怎麼說的吧~
7 天完工,難在顯示卡!整體滿意,顔色上還有不足
自稱将 AI 視為業餘愛好的大谷如今身在紐約,接受文摘菌采訪的時候,他感歎道,自己做 AI 科普視訊做了七年,沒想到一下子火了,現在完全處于“被資訊淹沒”的狀态。
大谷透露道,其實這次接觸老片修複純屬偶然,在搜尋其他資料時候,偶然間在 YouTube 看到了人民日報上傳的一段老北京視訊,對其中對視鏡頭的部分十分有感觸,“有一種穿越時空的感覺”。同時,一想到一百年前的人們有那個年代的思想,看問題的角度和現代有所差别,是很有趣的體驗,自己恰好了解相關技術,為何不将老片上色補幀,做成活靈活現的 60 幀,和大家分享呢?
具體到操作上,根據大谷介紹,可以大緻分為補幀、擴分辨率、上色三個環節,每個環節也都用了不同的工具,整體架構的流程則主要參考了 Denis Shiryaev 在社交媒體上分享的經驗貼。
大谷說道,整個項目隻用了 7 天時間,大部分都是硬性的時間消耗,比如補幀需要一到兩天,擴分辨率至少一天,上色也需要花費一天時間,再加上要做到 4K60fps,渲染速度很慢。多方考量之下,他把人民日報 14 分鐘的原片剪到了 10 分鐘。
相比而言,去年國慶 164 分鐘修複版《開國大典》讓人們親眼目睹三次戰役勝利到開國大典的曆史過程。除了借助 AI,膠片的撕裂、劃痕等都是專業的修複師一幀一幀地修補。“修複過程中,我們70%的時間都在完成資料片鏡頭的修複工作。”負責本片修複工作的三維六度公司的首席技術官周蘇嶽說道,雖然修複時間隻用了 40 天,但這卻是 600 人每天工作 20 小時的奮戰結果!
在視訊中,相信大家也會看到時不時會出現顔色跳來跳去的情況,大谷表示,在補幀之前用工具把老電影中經常出現的畫面閃爍去掉了,否則會更嚴重,整體的色彩上,AI 的渲染效果也明顯偏淡。
除此之外,大谷這次利用的是國外的一套模型,顯然無法直接将其套用到 100 年前的中國影片修複上,在顔色上就無法做到曆史性的準确,視訊中的上色都是AI學習的成果,雖然膚色大緻還原了,但是在紅綠服裝等方面的真實性還有待商榷。
也正是考慮到這些不足,大谷對去年參與《開國大典》修複的從業人員表達了敬意,“AI 沒辦法做到藝術家那麼準确,尤其是在曆史方面,而《開國大典》對曆史準确性的要求更高”,随後他也打趣地說道,或許可以“讓 AI 看看清宮劇,提升一下準确率”。
就像大谷在視訊開頭所說,他想用技術做一些對社會有意義的事,在這次視訊爆紅之後,他表現得相當豁達,“太深刻的大意義倒也說不上”,主要是想借此讓人們對曆史有所反思。不少網友指出,視訊中幾乎看不到女性,這正是曆史生動性的展現,既有光鮮也有不足,讓大家意識到現在的生活是多麼來之不易。
同時,作為老北京人,大谷也想通過視訊分享他的切身感受,讓更多人看到一百年前的民俗,尤其是上了色幀數提高之後,“感覺确實不一樣,也感慨這一百年的變化”。
對于目前收到得回報,大谷表示“完全沒想到”,他看了很多評論,也受感觸于一些留言,還有人私信向他表示,給太外婆看後,也很懷念那個年代。
大谷透露道,這其實是他第一次嘗試做視訊修複,後續或許會出一期視訊介紹一下具體的操作。對于後續的視訊更新計劃,他想要介紹一下國内已經成熟的語音修複技術。
目前,大谷在研究一款換衣 AI,通過把模特導入系統,在 Photoshop 裡換好衣服,就能生成模特穿上衣服的各種姿勢,聽上去是淘寶賣家會喜歡的 AI。不過,大谷介紹道,這個AI目前還處于“嬰兒狀态”,精度上不是很樂觀,未來需要大量的訓練,以後或許也會做個視訊介紹一下。
AI 助力,老片修複一直在路上
對于這次用到的技術,大谷表示,上色主要還是應用在黑白照片和電影上,補幀技術就可以遍地開花了,比如修複像素動畫的跳幀問題,或者在動畫領域加以應用,因為動畫很多是 12 幀/秒,甚至 6 幀/秒,補幀之後效果很好,也終于可以看更流暢的 EVA 了。
Denis Shiryaev通過神經網絡修複老視訊的内容今年在油管爆紅了一陣子,他使用Topaz Labs的Gigapixel AI和DAIN圖像編輯應用程式将1896膠片縮放到4K分辨率,不僅将素材增加到4K,還将幀率提高到每秒60幀。
Shiryaev最火的作品是用Gigapixel AI将1896年拍攝的50秒無聲短片《火車進站》(the Arrival of a Train at La Ciotat Station)做成了4K格式,把模糊的原片做成了高清畫質,完全符合當下的高清視訊标準!
盡管存在一些缺陷,如圖像會出現跳躍或某些細節依舊模糊,但已經很棒了!為了使這一作品更加完整,Shiryaev還為這部無聲電影添加了聲音。
這些圖像是通過生成對抗網絡(GANs)得來的。
科普一下,GANs是由兩個相反的神經網絡組成的。第一個網絡基于訓練對象的資料生成對象,而第二個的作用是确定對象的真實性。第一個網絡通過不斷嘗試,直到它的作品完美到足以欺騙第二個網絡。通過這種方式,才得以生成最有可能的圖像。
Gigapixel AI軟體使用一種專有的插值算法來分析圖像,它可以使圖像更清晰,甚至在放大了600%之後。
再來說說DAIN(深度感覺視訊幀插值),它可以将幀想象并插入現有視訊剪輯的關鍵幀之間。換句話說,DAIN首先分析并映射視訊片段,然後插入在現有圖像之間生成填充圖像。這與4K電視的運動平滑功能是同一個概念。為了在這段1896年的視訊中達到同樣的效果,Shiryaev添加了足夠多的圖像來将速度提高到60幀每秒。是以,DAIN自動生成,然後在最初記錄的24張圖像之外,每秒添加36張額外的圖像。
Shiryaev的 “火車”的視訊修複版本看起來像是一部使用智能手機或GoPro拍攝的最新電影。與原始視訊相比,效果非常驚人,尤其是在新版本中獲得了流暢性。列車上的陽光反射和月台上的女士珠寶都被記錄的很完整,也許是最顯着的改進之一。
Shiryaev也用神經網絡對這一修複視訊進行了着色:從一堆彩色照片開始,将它們轉換為黑白,然後訓練神經網絡以重建彩色原稿。
除了上文提到的《開國大典》,在老片修複上,“中影·神思”的開發,能縮短修複電影所需時間的四分之三,成本可以減少一半,目前已成功應用于《厲害了,我的國》《血色浪漫》《亮劍》等多部影視劇的圖像修複與增強當中。
愛奇藝也推出了其自主研發的視訊增強技術ZoomAI,為電影修複提出解決方案,這是業内第一個利用較低成本、将深度學習技術應用在視訊畫質增強場景中的方案。但不可否認的是,這種技術如果被有惡意的人使用,例如,可以用于制作“僞造品”并允許視訊中的身份盜用,也會導緻巨大的社會問題。
原文連結:
https://yqh.aliyun.com/detail/9818文章轉自阿裡雲雲栖号,本文一切觀點和《機器智能技術》圈子無關