再也不怕面瘫脸!YouTube黑科技:AI帮你「永久微笑」,连僵尸都咧嘴笑

新智元报道

编辑:倾倾

【新智元导读】几十G的大模型,怎么可能塞进一台手机?YouTube却做到了:在 Shorts 相机里,AI能实时「重绘」你的脸,让你一秒变身僵尸、卡通人物,甚至瞬间拥有水光肌,效果自然到分不清真假。

在youtube Shorts相机里,每个人都能「千变万化」。

可以是卡通角色、万圣节僵尸,甚至能立刻拥有粉色水光肌,效果自然又流畅。

最神奇的是,这些特效是直接在手机上实时生成的。

那么问题来了:YouTube是怎么把十几个G的大模型,塞进手机里的?

大模型塞进手机:YouTube的「瘦身术」

生成式AI模型的效果确实经验,但却有个致命问题:太大、太慢。

像StyleGAN、Imagen这类模型,只有在服务器上才能跑动。

因此必须要解决的问题,就是让滤镜在手机相机里即时生效。

瘦身关键:知识蒸馏

YouTube的思路,是把庞大的生成模型「瘦身」,变成一个专门为移动端设计的小模型。 这个过程靠的是一套叫知识蒸馏的方法。 简单说,就是「老师–学生模式」。

大模型先当老师,生成各种示范;小模型则是学生,一点点模仿,直到学会独立完成任务。

老师是动辄几十G的庞然大物,学生则是轻巧的UNet+mobilesNet架构,能在手机GPU上轻松跑到30帧。

不过,真正的教学过程远比想象中复杂。

打磨细节:迭代蒸馏

工程师们不是「一次教完」,而是采用迭代式蒸馏。

大模型不只是给学生出题,还会在过程中不断测试:给人脸戴上眼镜、加上遮挡,甚至模拟手挡脸的场景。

学生在学习时,也不是简单照搬,而是要同时满足多种标准:画面数值对得上、看上去相似、自然不突兀,还得兼顾美感。

整个过程就像是反复刷题:学生交卷,老师挑毛病,再调整参数继续练。

YouTube 的蒸馏流程:大模型先生成前后对照的图像对,小模型在此基础上不断学习,并通过超参数搜索迭代优化,最终实现如「永不眨眼」这样的实时特效。

工程师们甚至用上了神经架构搜索,自动帮学生找到最合适的「学习内容」,让它既高效又稳定。

经过一轮轮打磨,小模型终于真正掌握了大模型的本事。

在Pixel 8 Pro上,只需6毫秒就能完成一帧运算,iphoness 13大约10 毫秒,完全满足实时30帧的要求。

怎么保证还是你:PTI做担保

生成式AI在做特效时有个通病:它不会在原图上叠加效果,而是会重新生成整张人脸。

结果往往是肤色变了,眼镜没了,甚至五官都会变形,看上去完全不像本人。

这就是「inversion problem」——当模型把人脸转到潜在空间时,没能忠实还原身份特征。

YouTube想到的解决方案是Pivotal Tuning Inversion (PTI)。

可以把它理解为:在加特效之前,先让AI学会精准地「认清你是谁」。

原始图像会先被压缩成一个潜在向量,生成器用它画出一张初步的脸,但往往细节不到位。

于是工程师让生成器反复微调,让肤色、眼镜和五官逐渐被校正回来。

等身份被牢牢固定之后,再往里面加风格向量:比如笑容、卡通效果或者妆容。

最后生成的画面,看上去就是「还是你,只是换了个风格」。

图:PTI的完整流程:从输入人脸,到生成初始inversion,再经过多轮微调,最后在保留身份特征的前提下叠加特效,得到最终图像。

换句话说,PTI保证了这些AI特效更像化妆,而不是换脸。

手机里的流水线工厂:MediaPipe加速管道

训练出轻量级的小模型只是第一步,真正的挑战是如何稳定地在手机上运行。

为此,YouTube选择了MediaPipe——Google AI Edge的开源多模态ML框架,用它来搭建端侧的完整推理管道。

整个流程可以分成四步:

首先,通过MediaPipe的Face Mesh模块,识别出视频流中的一个或多个人脸。

接着,由于学生模型对人脸位置很敏感,系统会把检测到的脸进行稳定裁剪和旋转对齐,保证输入一致。

之后,裁剪后的图像被转成张量输入学生模型,特效(比如微笑、卡通风格)在这一环节实时生成。

最后,模型输出的人脸图像再被无缝拼回到原始视频帧中,让用户看到连贯自然的最终画面。

图:MediaPipe在端侧的完整推理流程:先检测人脸并稳定对齐,再送入学生模型生成特效,最后拼回视频帧,整个过程在毫秒级内完成。

通过GPU加速,Pixel 8 Pro上的推理延迟被压缩到约6毫秒/帧,iphoness 13 GPU约10.6毫秒/帧。

对用户来说,就是打开相机就能体验到顺滑的AI特效。

不只是美颜:YouTube的实时AI秀场

这套技术已经在YouTube Shorts上全面铺开,创作者们能直接用上几十种实时特效。

想要时刻挂着微笑?用Always Smile,哪怕你本人此刻面无表情,镜头里也会立刻咧嘴笑开。

想玩点惊悚?万圣节专属的Risen Zombie,分分钟把你变成刚爬出来的丧尸。

这些滤镜已经让Shorts里的创作方式发生了质变:不是贴图,而是AI量身绘制。

但这只是开始。

YouTube正在测试用Veo模型,可以把一张静态图片生成完整的视频片段。

用户只需要一张自拍或者一幅手绘,就能在手机上变成一段动态短片。

这意味着,未来的YouTube Shorts不只是拍视频加滤镜,而是随手一张图,就能生成一条视频。

创作者的门槛会进一步降低,AI会更深地嵌入每个人的创作过程。

从实时滤镜到一键生成短片,YouTube正把AI变成创作者的随身画笔。

参考资料:

http://research.google/blog/from-massive-models-to-mobiles-magic-the-tech-behind-youtube-real-time-generative-ai-effects/

运城
上一篇:{loop type="arclist" row=1 }{$vo.title}