1. 首页
  2. 电影新闻

瞬间穿越情书电影在线观看!AI修复100年前的京城视频爆火网络

近日情书电影在线观看,一段由AI修情书电影在线观看复的“100年前的北京晚清影像”在社交平台上火了,博主“大谷Spitzer”用 AI 技术修复了一段古董视频,使得 100 多年前老旧的黑白影像变得更加清晰,甚至有了颜色。AI修复100年前的京城视频该视频由加拿大摄影师在1920-1929年间拍摄。视频中原本色彩单调、轮廓模糊的人影。修复后的视频把当时的北京城演绎的活灵活现,下边的片段中,左下角小哥呆呆地看着镜头,连细微的表情都清晰可见。不仅整体氛围没话说,连细节部分也分毫毕现,“每个人脸上都是新奇又不敢接近的表情”。加上后期逼真的音效,直接把观众带回了1920年的老北京。“一旦有了颜色,对影像的理解也就完全不一样了。”网友“大谷Spitzer”打小在北京长大,对老北京的风貌情有独钟。这次,他是用AI人工智能技术给影像着色。最近几年,彩色修复资料影片已经很常见,不少都是通过人工修复。但大谷截取了其中的10分钟,尝鲜使用AI人工智能技术相继完成上色、修复帧率、扩大分辨率,最终呈现出彩色画面。人工修复耗时耗力,一段影片往往需要几十到几百人同时奋战几十天。但AI修复就痛快多了。大谷一个人花了7天的时间就基本完成了,但整个过程还是让他费尽心思。影像修复三大步骤大谷表示,视频中一共用了三个AI,就是不同的程序,不同人做的,他们都把自己的作品公开到开源程序网站,所有代码和他们训练的模型都是公开的。其中第一个是负责做补帧的(DAIN),第二个是做分辨率扩增(ESRGAN)的,第三个是上色的(DeOldify)。DAIN 插帧技术DAIN 插帧技术由上海交大Bao Wenbo等人提出的DAIN插帧技术,这项研究提出通过探索插帧中的depth cue,来显式地检测遮挡。DAIN 模型的架构如下图所示:DAIN 架构图。给出两个输入帧,DAIN 首先估计其光流和深度图,并使用深度感知光流投影层来生成中间流;然后采用自适应变形层(adaptive warping layer),基于光流和空间变化的插值 情书电影在线观看Kernel 对输入帧、深度图和语境特征进行变形处理;最后,使用帧合成网络生成输出帧。4K 分辨率视频修复过程至少需要额外填充600万像素来适应4K高清分辨率,而这种 “插值” 过程正是AI技术的用武之地,所补充显示的内容皆是基于相邻周边像素所呈现的内容。“插值”过程本质上是一种猜谜游戏,如果让卷积神经网络这类 AI 技术去发号施令的话会有更优质的反馈效果。DeOldify 着色模型而在着色上,相信社区的大部分读者都知道一个基于 GAN 的图像着色模型 DeOldify。通过下面的对比图,我们可以看到该模型的效果。DeOldify 基于生成对抗网络,由深度学习研究员 Jason Antic 开发并维护。自从 2018 年项目开启以来,DeOldify 已经进行了多次迭代。

本文来自投稿,不代表本人立场,如若转载,请注明出处:http://www.otochaya.com/dianyingxinwen/39.html