找回密码
 快速注册
搜索

0

0

收藏

分享

社会 警惕“AI换脸”新型诈骗

18811797966 · 2023年6月25日 12:16:47
本帖最后由 史迪崽崽 于 2023年6月25日 14:55 编辑

  近一段时间,点开各种平台的直播间一看,不少卖货的竟是当红明星,再定睛一看,其实大部分都是使用人AI实时换脸技术的普通主播,他们“冒充”明星艺人,只为蹭明星流量卖货。抛开侵权不说,如果单纯卖货倒也无伤大雅,但是最近利用AI换脸进行电信诈骗的案例频上热搜,不禁令人担忧。

  近日,来自福建的郭先生突然接到朋友的微信视频,称自己在外地竞标,需要430万元保证金,想借用郭先生公司的账户走账。基于对好友的信任,加上已经视频聊天“核实”了身份,郭先生先后分两笔把430万元转到了对方的银行账户上。事后,郭先生拨打好友电话才得知被骗,原来骗子通过AI换脸和拟声技术,佯装好友对其实施诈骗。“当时是给我打了视频的,我在视频中也确认了面孔和声音,所以才放松了戒备。”郭先生事后说。

  AI换脸诈骗相比传统电信诈骗成本更低、时速更快、角色更多、机率更高和防范更难等特点,对社会造成的危害也更大。因此,我们要提高防备心,警惕以下几种诈骗方式,一是利用AI技术生成虚假的语音信息,冒充亲戚、朋友等身份进行诈骗。二是利用AI技术生成更加逼真的虚假视频,制造更加真实的人物或情境,让受害者更容易上当受骗。三是利用AI技术生成虚假的网站、邮件等,诱导用户输入个人信息或下载恶意软件。四是使用AI技术分析目标用户的行为特征和个人信息,进行精准定向攻击,窃取个人敏感信息。

  尽管当前的AI换脸技术已经足够生成逼真的假象来欺骗受害者,未来鉴别AI换脸和真人之间的区别会变得越来越困难,但仍有可能通过分析和观察来发现一些两者间的差异。眼睛、嘴巴、耳朵等区域的细微特征(如光照、纹理等),那些不自然的变化可能就是AI生成的。如果视频中的人脸与周围环境不协调,遮挡脸部后视频产生扭曲,则可能是AI换脸的结果。此外,如果人脸的动作、表情和语音不匹配或不自然,也可能是AI生成的。

  防范电信诈骗尤其是AI诈骗,首先应加强对信息网络平台运营方的监管,防止生物信息被窃取,另外,也应加强深度合成技术的监控管理。当然,我们自己也应对网络上任何东西,无论是视频、语音,还是视频聊天,都要保持警惕心。首先是重视个人隐私保护。应谨慎地处理个人敏感信息,不随便在互联网上留下个人信息,尤其是面部数据;还要学会辨别虚假新闻和图片,不轻信未经证实的信息。如果发现虚假信息或被盗用后的个人隐私,应及时举报和处理,避免遭受更大损失。其次是提高警惕性。一旦出现任何可疑的情况或者让人感到不安的交流内容,应该高度警惕,多加甄别和多重验证,包括拨打第三方电话、面对面交流等多途径核验对方身份。第三是加强网络安全意识。确保各类账号安全,不随意泄露个人信息、银行卡信息和验证码等。同时,避免在不可信的网络平台上下载未知来源的应用程序,不打开来路不明的邮件附件,以免被恶意软件感染等。

特别声明:本文为选调生网注册会员上传并发布,仅代表作者本人观点。选调生网提供信息发布平台。

您需要登录后才可以回帖 立即登录

QQ客服

公众号

①扫码关注官方微信

②绑定个人微信
(可快捷登录)

QQ群

选调生网投稿交流②群

②群798444397

选调生网投稿交流①群

①群681241005(已满)

VIP特权

返回顶部