AI换脸能以假乱真?这几种图片不要随便发_新闻频道

原标题:只需一张照片AI换脸就能以假乱真?这几种图片不要随便发

随着人工智能技术的快速发展,相关的应用正在进入我们生活的方方面面。然而,这也给个人信息保护带来了新的挑战。在8日开幕的2024年国家网络安全宣传周上,关于AI换脸、换声等对个人隐私侵害的话题成为大家关注的焦点。

一张“人像照片”、一段近距离的人物视频,都有可能成为不法分子犯罪的新手段和新工具。

在今年的网络安全博览会上,各大安全企业纷纷展示了安全领域新产品和新技术,尤其是针对人工智能的安全防护更是成为各大安全企业着力的重点领域。

AI换脸能以假乱真?这几种图片不要随便发

画面中技术人员正在演示的就是“AI换脸”技术,仅需一张目标人物的静态照片,就能让照片中的人物动起来。

AI换脸能以假乱真?这几种图片不要随便发

中国网络空间安全协会人工智能安全治理专业委员会委员张博:本身是一张不会动的静态图片,演示者做一些动作之后,AI换脸软件采集到了演示者面部动起来的特征,把特征融合到静态图片当中,就让图片照着演示者的动作动了起来,也可以形成一个视频。

张博介绍,尽管现在AI换脸、换声等有一定的技术门槛和操作成本,但如果被不法分子获取的情况下,就有可能被用来假冒他人,实施相关的犯罪活动。

AI换脸能以假乱真?这几种图片不要随便发

中国网络空间安全协会人工智能安全治理专业委员会委员张博:当前AI换脸技术还是比较成熟,能支持视频通话实时换脸,可以达到以假乱真的程度。除了换脸之外,再结合着换背景环境、换声音等,逼真度就会更高,更加难以分辨。

发表评论:

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。

Powered By Z-BlogPHP 1.7.2

 Theme By 优美尚品