阿里EMO模型,一张照片就能造谣

 
EMO的技术报告中称:实验结果表明,EMO不仅能够产生令人信服的说话视频,还能生成各种风格的歌唱视频,显著优于现有的先进方法,如DreamTalk、Wav2Lip和SadTalker,无论是在表现力还是真实感方面。
 
EMO模型有如下特点:
 
直接音频到视频合成:EMO采用直接从音频合成视频的方法,无需中间的3D模型或面部标志,简化了生成过程,同时保持了高度的表现力和自然性。

2月28日,阿里巴巴智能计算研究所发布了一款全新的生成式AI模型EMO(Emote Portrait Alive)。EMO仅需一张人物肖像照片和音频,就可以让照片中的人物按照音频内容“张嘴”唱歌、说话,且口型基本一致,面部表情和头部姿态非常自然。

 

EMO不仅能够生成唱歌和说话的视频,还能在保持角色身份稳定性的同时,根据输入音频的长度生成不同时长的视频。



角色:张颂文饰演的高启强

声乐来源:法律考试在线课程

角色:Audrey Kathleen Hepburn-Ruston

声乐来源:Ed Sheeran – Perfect. Covered by Samantha Harvey

角色:来自SORA的AI Lady

声乐来源:Where We Go From Here with OpenAI’s Mira Murati

角色:蔡徐坤

声乐来源:Eminem – Rap God

角色:张国荣

声乐来源:陈奕迅 – Eason Chan – Unconditional. Covered by AI (粤语)

EMO的工作过程分为两个主要阶段:首先,利用参考网络(ReferenceNet)从参考图像和动作帧中提取特征;然后,利用预训练的音频编码器处理声音并嵌入,再结合多帧噪声和面部区域掩码来生成视频。该框架还融合了两种注意机制和时间模块,以确保视频中角色身份的一致性和动作的自然流畅。

 

这个过程相当于,AI先看一下照片,然后打开声音,再随着声音一张一张地画出视频中每一帧变化的图像。


 

EMO的技术报告中称:实验结果表明,EMO不仅能够产生令人信服的说话视频,还能生成各种风格的歌唱视频,显著优于现有的先进方法,如DreamTalk、Wav2Lip和SadTalker,无论是在表现力还是真实感方面。

 

目前,研究团队认为该模型的潜在应用方向将集中在:提高数字媒体和虚拟内容生成技术水平,特别是在需要高度真实感和表现力的场景中。

 

然而在另一些人看来,EMO模型却很可能成为别有用心的人手中的犯罪工具。

 

AI生成视频日益危险

 

事实上,与EMO类似的多数研究,对于技术滥用的可能性讨论的都相对较少。EMO的技术报告中也没有直接提及EMO模型是否可能被用于非法用途。

 

然而,基于深度学习和生成模型的技术,如EMO,确实存在被滥用的风险,例如生成虚假内容、侵犯隐私或个人形象权等。

 

生成式AI技术的快速发展,在刺激全社会正向发展的同时也给很多黑色、灰色产业提供了新技术。

 

LLaMA等开源大语言模型刚刚兴起时,就有一些不法分子利用AI生成诈骗脚本。某互联网金融机构专家告诉虎嗅,AI生成的诈骗脚本内容更多变,在一定程度上增加了利用技术手段甄别诈骗的难度。

 

不过语言模型即便对于不法分子来说,也并不容易找到应用场景。DeepFake(深度伪造)的“主战场”目前仍在图片和视频生成领域。

 

深度伪造技术是通过AI创建或修改图片、视频和音频内容,使之看起来像是真实的,但实际上是虚构的。这种技术的高度真实性和易于获取的特点,使其应用范围广泛,但同时也带来了一系列道德和法律上的挑战。

 

距离今天最近的DeepFake案件就是2024年1月下旬AI合成Taylor Swift色情图片事件。这些图片在社交媒体平台4chan和X(以前称为 Twitter)上大量传播,据外媒报道,其中一篇帖子在最终被删除之前已被浏览超过4700万次。有人认为斯威夫特的影响力可能会导致关于制作深度伪造色情内容的新立法。

 

除了著名歌星之外,深度伪造技术也曾被应用在一些危险的政治斗争中。美国非党派倡导组织RepresentUs曾利用深度伪造技术发布广告,伪造普京和金正恩的讲话,暗指普京正在操纵美国大选。虽然这两则视频都以“这段视频不是真实的,但威胁是真实的”这样的免责声明结尾,但对于辨别能力较弱的普通民众来说,如果这样的伪造视频大规模传播,仍是有可能造成严重的后果。

 

虽然多数生成式AI技术开发的目的都是用于创新和教育,但其在法律方面的潜在负面影响,尤其是在侵犯个人隐私、扭曲信息真相和影响政治过程方面,需要得到社会、立法机构和技术公司的足够重视。

 

如何规避DeepFake风险?

 

目前,开发和应用此类技术时,研究者和开发者需考虑到这些潜在风险,并采取适当的措施来减轻这些风险,例如通过加入水印、制定使用准则等方式。

 

为了应对深度伪造视频和图像的挑战,目前已经开发了很多技术和法律手段,来识别伪造内容,并限制技术使用范围,包括加水印,制定严格的使用准则等方式。

 

Nature在2023年5月刊登的一篇论文中,介绍了一种通过机器学习(ML)和深度学习(DL)技术来检测和分类深度伪造图像的方法。这个框架利用预处理方法找到错误级别分析(ELA),然后使用深度CNN架构提取深层特征,这些特征随后通过SVM和KNN进行分类,准确率达到了89.5%。

 

MIT Media Lab也在积极研究相关项目,一项名为Detect DeepFakes的项目,可以通过识别AI生成的错误信息的微妙迹象来对抗误导信息。该项目组认为,深度伪造视频有一些细微的标志,比如面部的不自然平滑或阴影位置不正确等,可以帮助人们识别出深度伪造内容。

 

很多科技巨头也针对DeepFake推出了一些检测技术。Intel就研发了一款名为FakeCatcher的实时深度伪造检测器,该技术可以在毫秒级返回结果,准确率高达96%。FakeCatcher通过评估视频像素中的微妙“血流”变化来寻找真实视频的线索,然后使用深度学习即时检测视频是真实还是伪造。

 

Google的Assembler实验平台,则可以帮助记者和事实核查员快速验证图像。虽然Assembler是一个积极的步骤,但它不涵盖视频的许多其他现有操纵技术,技术解决方案本身并不足以解决数字伪造的所有挑战。

 

此外,也有一些专门的机构在提供这方面的服务。Sentinel是一家基于AI的保护平台,用户可以通过其网站或API上传数字媒体,系统将自动分析媒体是否为AI伪造,并提供操纵的可视化表示。

 

然而,道高一尺魔高一丈。生成式AI技术的快速发展,或许很快就会使这些检测技术和工具中的一部分失效。

 

例如EMO模型,即使在缺乏明显线索的情况下,也能创建出逼真的视频。另一方面,如果视频内容的复杂性过高,或视频质量过低,也可能会大大影响检测工具的准确性。

 

EMO技术报告解读

 

EMO模型的训练数据集使用了超过250小时的视频和超过1.5亿张图像。这个数据集包含了广泛的内容,包括演讲、电影和电视剪辑以及歌唱表演,涵盖了多种语言,如中文和英文。这确保了训练材料能够捕捉到人类表达和声音风格的广泛光谱。

 

在模型架构方面,EMO采用了与Stable Diffusion相似的UNet结构,其中包含了用于视频帧生成的时间模块。

 

训练分为三个阶段,图像预训练、视频训练和速度层训练。在图像预训练阶段,网络以单帧图像为输入进行训练。在视频训练阶段,引入时间模块和音频层,处理连续帧。速度层训练专注于调整角色头部的移动速度和频率。

 

使用了大约250小时的talking head视频,来自互联网和HDTF以及VFHQ数据集,VFHQ数据集在第一阶段训练时使用,因为它不包含音频。

 

视频剪辑被重置和裁剪到512×512的分辨率。在第一训练阶段,批处理大小设置为48。在第二和第三训练阶段,生成视频长度设置为f=12,运动帧数设置为n=4,训练的批处理大小为4。

 

学习率在所有阶段均设置为1e-5。在推理时,使用DDIM的采样算法生成视频剪辑,为每一帧生成指定一个恒定的速度值。生成一批(f=12帧)的时间大约为15秒。

 

这些详细信息提供了对EMO模型训练和其参数配置的深入了解,突显了其在处理广泛和多样化数据集方面的能力,以及其在生成富有表现力和逼真肖像视频方面的先进性能。

 

EMO模型有如下特点:

 

直接音频到视频合成:EMO采用直接从音频合成视频的方法,无需中间的3D模型或面部标志,简化了生成过程,同时保持了高度的表现力和自然性。

 

无缝帧过渡与身份保持:该方法确保视频帧之间的无缝过渡和视频中身份的一致性,生成的动画既生动又逼真。

 

表达力与真实性:实验结果显示,EMO不仅能生成令人信服的说话视频,而且还能生成各种风格的歌唱视频,其表现力和真实性显著超过现有的先进方法。

 

灵活的视频时长生成:EMO可以根据输入音频的长度生成任意时长的视频,提供了极大的灵活性。

 

面向表情的视频生成:EMO专注于通过音频提示生成表情丰富的肖像视频,特别是在处理说话和唱歌场景时,可以捕捉到复杂的面部表情和头部姿态变化。

 

这些特点共同构成了EMO模型的核心竞争力,使其在动态肖像视频生成领域表现出色。

 

EMO模型的工作原理

 


预训练音频编码器:EMO使用预训练的音频编码器(如wav2vec)来处理输入音频。这些编码器提取音频特征,这些特征随后用于驱动视频中的角色动作,包括口型和面部表情。

 

参考网络(ReferenceNet):该网络从单个参考图像中提取特征,这些特征在视频生成过程中用于保持角色的身份一致性。ReferenceNet与生成网络(Backbone Network)并行工作,输入参考图像以获取参考特征。

 

骨干网络(Backbone Network):Backbone Network接收多帧噪声(来自参考图像和音频特征的结合)并尝试将其去噪为连续的视频帧。这个网络采用了类似于Stable Diffusion的UNet结构,其中包含了用于维持生成帧之间连续性的时间模块。

 

注意力机制:EMO利用两种形式的注意力机制——参考注意力(Reference-Attention)和音频注意力(Audio-Attention)。参考注意力用于保持角色身份的一致性,而音频注意力则用于调整角色的动作,使之与音频信号相匹配。

 

时间模块:这些模块用于操纵时间维度并调整动作速度,以生成流畅且连贯的视频序列。时间模块通过自注意力层跨帧捕获动态内容,有效地在不同的视频片段之间维持一致性。

 

训练策略:EMO的训练分为三个阶段:图像预训练、视频训练和速度层训练。在图像预训练阶段,Backbone Network和ReferenceNet在单帧上进行训练,而在视频训练阶段,引入时间模块和音频层,处理连续帧。速度层的训练在最后阶段进行,以细化角色头部的移动速度和频率。

 

去噪过程:在生成过程中,Backbone Network尝试去除多帧噪声,生成连续的视频帧。去噪过程中,参考特征和音频特征被结合使用,以生成高度真实和表情丰富的视频内容。

 

EMO模型通过这种结合使用参考图像、音频信号、和时间信息的方法,能够生成与输入音频同步且在表情和头部姿势上富有表现力的肖像视频,超越了传统技术的限制,创造出更加自然和逼真的动画效果。

声明: 该内容为作者独立观点,不代表新零售资讯观点或立场,文章为网友投稿上传,版权归原作者所有,未经允许不得转载。 新零售资讯站仅提供信息存储服务,如发现文章、图片等侵权行为,侵权责任由作者本人承担。 如对本稿件有异议或投诉,请联系:wuchangxu@youzan.com
(0)
上一篇 2024年2月28日
下一篇 2024年2月29日

相关推荐

  • 水温80度:AI行业真假繁荣的临界点

    我们从来没拥有过这么成功的AI主导的产品。

    (这种分析统计并不那么准,但大致数量级是差不多的)

    这两个产品碰巧可以用来比较有两个原因:

    一个是它们在本质上是一种东西,只不过一个更通用,一个更垂直。

    蓝海的海峡

    未来成功的AI产品是什么样,大致形态已经比较清楚了,从智能音箱和Copilot这两个成功的AI产品上已经能看到足够的产品特征。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时“罢工”,全网打工人都慌了

    美西时间午夜12点开始,陆续有用户发现自己的ChatGPT要么响应超时、要么没有对话框或提示流量过载,忽然无法正常工作了。

    因为发现AI用久了,导致现在“离了ChatGPT,大脑根本无法运转”。”

    等等,又不是只有一个聊天机器人,难道地球离了ChatGPT就不转了。

    大模型连崩原因猜想,谷歌躺赢流量激增6成

    GPT归位,人们的工作终于又恢复了秩序。

    未来科技 2024年6月5日
  • ChatGPT宕机8小时,谷歌Gemini搜索量激增60%

    ChatGPT一天宕机两次

    谷歌Gemini搜索量激增近60%

    ChatGPT在全球拥有约1.8亿活跃用户,已成为部分人群工作流程的关键部分。

    过去24小时内提交的关于OpenAI宕机的问题报告

    图片来源:Downdetector

    ChatGPT系统崩溃后,有网友在社交媒体X上发帖警告道:“ChatGPT最近发生的2.5小时全球中断,为我们所有依赖AI工具来支持业务的人敲响了警钟。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时大崩溃,AI集体罢工让全网都慌了

    接着OpenAI也在官网更新了恢复服务公告,表示“我们经历了一次重大故障,影响了所有ChatGPT用户的所有计划。Generator调查显示,在ChatGPT首次故障后的四小时内,谷歌AI聊天机器人Gemini搜索量激增60%,达到327058次。

    而且研究团队表示,“Gemini”搜索量的增长与“ChatGPT故障”关键词的搜索趋势高度相关,显示出用户把Gemini视为ChatGPT的直接替代选项。

    未来科技 2024年6月5日
  • 深度对话苹果iPad团队:玻璃的传承与演变

    iPad最为原始的外观专利

    没错,这就是iPad最初被设想的样子:全面屏,圆角矩形,纤薄,就像一片掌心里的玻璃。

    2010年发布的初代iPad

    好在乔布斯的遗志,并未被iPad团队遗忘。

    初代iPad宣传片画面

    乔布斯赞同这一想法,于是快速将资源投入平板电脑项目,意欲打造一款与众不同的「上网本」,这就是iPad早年的产品定义。

    iPad进化的底色

    苹果发布会留下过很多「名场面」,初代iPad发布会的末尾就是一例。

    未来科技 2024年6月5日
  • 底层逻辑未通,影视业的AI革命正在褪色…

    GPT、Sora均为革命性产品,引发了舆论风暴,但它在上个月发布的“多模态语音对谈”Sky语音,却由于声音太像电影明星斯嘉丽·约翰逊,被正主强烈警告,被迫下架。

    华尔街日报也在唱衰,认为“AI工具创新步伐正在放缓,实用性有限,运行成本过高”:

    首先,互联网上已经没有更多额外的数据供人工智能模型收集、训练。

    03、

    如果说训练“数字人”、使用AI配音本质上瞄向的仍是影视行业固有的发展方向,那么还有另外一群人试图从根本上颠覆影视行业的生产逻辑和产品形态。

    但分歧点正在于此,电影公司希望通过使用AI技术来降低成本,但又不希望自己的内容被AI公司所窃取。

    未来科技 2024年6月5日
  • KAN会引起大模型的范式转变吗?

    “先变后加”代替“先加后变”的设计,使得KAN的每一个连接都相当于一个“小型网络”, 能实现更强的表达能力。

    KAN的主要贡献在于,在当前深度学习的背景下重新审视K氏表示定理,将上述创新网络泛化到任意宽度和深度,并以科学发现为目标进行了一系列实验,展示了其作为“AI+科学”基础模型的潜在作用。

    KAN与MLP的对照表:

    KAN使神经元之间的非线性转变更加细粒度和多样化。

    未来科技 2024年6月5日
  • 这个国家,也开始发芯片补贴了

    //mp.weixin.qq.com/s/tIHSNsqF6HRVe2mabgfp6Q
    [4]中国安防协会:欧盟批准430亿欧元芯片补贴计划:2030年产量占全球份额翻番.2023.4.19.https。//mp.weixin.qq.com/s/VnEjzKhmZbuBUFclzGFloA
    [6]潮电穿戴:印度半导体投资大跃进,一锤砸下1090亿,政府补贴一半.2024.3.5https。

    未来科技 2024年6月5日
  • 大模型的电力经济学:中国AI需要多少电力?

    这些报告研究对象(数字中心、智能数据中心、加密货币等)、研究市场(全球、中国与美国等)、研究周期(多数截至2030年)各不相同,但基本逻辑大同小异:先根据芯片等硬件的算力与功率,计算出数据中心的用电量,再根据算力增长的预期、芯片能效提升的预期,以及数据中心能效(PUE)提升的预期,来推测未来一段时间内智能数据中心的用电量增长情况。

    未来科技 2024年6月5日
  • 你正和20万人一起接受AI面试

    原本客户还担心候选人能否接受AI面试这件事,但在2020年以后,候选人进行AI面试的过程已经是完全自动化的,包括面试过程中AI面试官回答候选人的问题,AI面试官对候选人提问以及基于候选人的回答对候选人进行至多三个轮次的深度追问。

    以近屿智能与客户合作的校验周期至少3年来看,方小雷认为AI应用不太可能一下子爆发,包括近屿智能在内的中国AI应用企业或许要迎来一个把SaaS做起来的好机会。

    未来科技 2024年6月4日