AI“多人换脸”冒充公司高层 香港一财务职员被骗2亿港元
南方都市报 2024-03-28 11:31

参加多人视频会议,结果只有自己是真人,这事听上去似乎匪夷所思,却真实地发生了。近期,香港警方披露了一起多人“AI换脸”诈骗案,涉案金额高达2亿港元。除了此次香港AI“多人换脸”视频诈骗案,香港近期还出现了其他“AI换脸”行骗隐患。据香港特区政府新闻网消息,近日,网上出现以人工智能伪造的电视节目片段,冒称香港特区行政长官向市民推介一项投资计划。

“AI换脸”背后的技术原理到底是什么?在技术层面,它是如何实现人脸的精确识别与替换,创造出逼真效果?我们应该如何看清这类AI“深度造假”?辨别“AI换脸”有没有什么好方法?

香港首次涉及AI“多人换脸”的诈骗案

在这起案件中,一家跨国公司香港分部的职员受邀参加总部首席财务官发起的“多人视频会议”,并按照要求先后转账多次,将2亿港元分别转账15次,转到5个本地银行账户内。

其后,向总部查询才知道受骗。据香港媒体报道,诈骗分子是利用了人工智能的深度伪造技术,从国外视听网站YouTube上下载了视频,模仿了公司高层人员的声音再对受害者发出行动指示,再利用Deepfake(深度伪造)技术制作伪冒视频,造成多人参与视频会议的效果,然而会议内只有参加的职员一人为“真人”。这起案件涉及的金额达2亿港元,不仅是香港历史上损失最惨重的“换脸”案例,而且也是首次涉及AI“多人换脸”的诈骗案。

据悉,除了此次香港AI“多人换脸”视频诈骗案,香港近期还出现了其他AI换脸行骗隐患。网上出现以人工智能(AI)伪造的电视节目片段,冒称香港特别行政区行政长官向市民推介一项投资计划。在网上出现以AI伪造的短片中,可以看到“AI李家超”现身推介一项“高回报的投资计划”。

1月24日晚,香港特区政府发布新闻公报称,特区政府发言人呼吁市民必须提高警惕,切勿误信网上以AI伪造的电视节目片段,节目内容均冒称行政长官向市民推介一项投资计划。特区政府严正澄清,影片全属伪造,行政长官从未作出相关言论,并强烈谴责不法之徒假冒行政长官向市民诈骗。

发言人再次提醒市民,切勿轻信类似的所谓投资广告或推广影片,在网上提供个人资料给他人,登记加入有关的应用程序或点击任何链接。市民应小心求证,核实真伪,慎防受骗。有关事件将转交警方作进一步调查。

目前AI“换脸”更多应用于娱乐视频录制

中国网络空间安全协会人工智能安全治理专委会专家薛智慧介绍,AI换脸过程主要包括人脸识别追踪、面部特征提取、人脸变换融合、背景环境渲染、图像与音频合成等几个关键步骤。其背后最核心的包括三个部分,首先,利用深度学习算法精准地识别视频中的人脸图像,并提取出如眼睛、鼻子、嘴巴等关键面部特征。其次,将这些特征与目标人脸图像进行匹配、替换、融合。最后,通过背景环境渲染并添加合成后的声音,生成逼真度较高的虚假换脸视频。

为了了解AI换脸到底能有多么逼真,记者经过与专业技术人员合作,深度体验了AI换脸技术。

技术人员首先用手机给记者拍了一张脸部照片,导入到AI人工智能软件后,让记者惊讶的是,虽然电脑摄像头前的是技术人员,但是输出的却是记者的照片,几乎可以说是“一键换脸”,不需要复杂的环境和解压操作。更令人惊讶的是,随着技术人员面部表情变化,照片上记者的脸也跟着一起发生了相应变化。

专家告诉记者,如果想要实现视频实时通话时采用人工智能AI换脸技术,一张照片是远远不够的,那就需要不同角度的近千张照片的采集。

除了一些不法分子企图利用AI技术实施诈骗,事实上,近年来,AI技术更多地被应用于短视频的二次创作,属于娱乐性质,越来越多的名人AI换脸视频出现在网络上,不少网友感叹,这类视频“嘴型、手势都对得上,太自然了,差点儿以为是真的”。目前已有软件仅通过面部照片,就能录制生成出一段视频。记者发现在手机应用商城中,有数十款换脸软件,都可以达到换脸的目的。

薛智慧说,“如果从娱乐大众的角度来说的话,现在市面上也有很多这些软件和工具,能够达到AI换脸的效果,但是仿真度只有六七分的样子,大众直接就能看出来。”

学会几招轻易识别AI“换脸换声”

中国计算机学会安全专业委员会数字经济与安全工作组成员方宇提醒,“实际上从我目前看到的深度伪造的实时视频上来看,其实还是可以通过一些方式,去进行验证”。

比如说我们可以要求对方在视频对话的时候,在脸部前通过挥手的方式,去进行识别实时伪造的视频。在挥手的过程中,就会造成面部数据的干扰,最终产生的效果就是挥手的过程中,他所伪造的人脸会产生一定的抖动、闪现,或者是一些异常的情况。第二个方法就是点对点的沟通中可以问一些只有对方知道的问题,验证对方的真实性。

链接

香港科技罪案同比增长53%

根据中国香港警方最新数据,去年1至11月,香港科技罪案激增至近3.2万起,占所有罪案的四成,同比增53%,涉案金额超50亿港元,同比增72%。其中,一电邮诈骗案涉款最高,达7820万港元。网络投资诈骗增加显著,共4703起,是前年同期的1.8倍,占总科技罪案的15%,涉及金额达30亿港元。

香港网络安全及科技罪案调查科网络安全组署理高级警司陈纯青表示,利用人工智能“深度伪造”的欺诈手法,与传统诈骗手法其实如出一辙,只是利用不同手段以取得受害人信任进行诈骗,最终目的主要是诱骗受害人将款项转账到骗徒指定户口。

他强调,虽然科技发展一日千里,只要市民时刻保持警惕,养成一个高防骗意识的习惯,对任何社交平台或通讯软件所收到的信息,也要有一个查证真伪的意识及必须要有行动,谨记在人工智能“深伪技术”下,网上已经“眼见不一定为实,有图片亦不一定是真相”。

知多D

深度伪造技术何以以假乱真?

Deepfake(深度伪造)是英文“Deep learning”(深度学习)和“Fake”(伪造)的混成词,指利用深度学习技术生成合成图像、音频或视频的技术。由于公众人物的视频、音频、图片资料的公开性,为AI训练提供了大量素材,因此名人经常成为AI造假的受害者。

Deepfake的实现原理主要依赖于深度神经网络,特别是生成对抗网络(GAN)。通过训练大量的面部图像数据,Deepfake模型能够学习到面部特征之间的潜在关系,并生成与真实面部特征高度相似的虚假面部特征。

目前,Deepfake技术的应用较为广泛,可以用于电影制作、视频编辑、虚拟现实等领域,而该技术的急速发展对维护网络安全带来挑战。

文/董淑云

编辑/倪家宁

相关阅读
现代版“画皮”:AI换脸生成“爱情骗局”,杀猪盘正走向人工智能
21世纪经济报道 2024-10-16
“AI换脸”诈骗?新技术建起安全屏障 “AI火眼”5秒识破“AI换脸”
广州日报 2024-09-09
打击AI换脸诈骗 技术力量当有更大作为
中国青年报 2024-08-21
蚂蚁数科正式发布反深伪产品 ZOLOZ Deeper
北京青年报客户端 2024-04-16
AI换脸精准诈骗难以防范 全国人大代表建议 推进立法强化人工智能技术安全应用
法治日报 2024-04-09
防范“AI换脸”诈骗 你需要的知识都在这儿了
央视新闻 2024-02-29
Sora来袭AI换脸门槛降低 网络安全公司何以应对新风险?
证券日报 2024-02-29
随着Sora等模型的开放和应用,AI换脸等技术的门槛持续降低
解放日报 2024-02-21
最新评论