AI诈骗屡见不鲜 人工智能如何执好这把“双刃剑”
福州的李先生遭遇了冒充领导的AI诈骗,被骗数万元。骗子通过和李先生打视频电话,取得了李先生的信任,在后续的聊天中骗子提出想借李先生钱,由于事先有视频确认,李先生不疑有他,便向“曾某”提供的账户转账数万元,后发现被骗。
某公司财务小王接到领导电话,要求立刻给供应商转款2万元,并将转账信息以邮件形式发送,转款理由是避免缴纳滞纳金。由于老板的口音十分逼真,小王信以为真,在1小时内转款完成,后发现被骗。
我们了解一下AI诈骗的几种主要方式
1)利用声音合成进行诈骗
即通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。
2)利用AI换脸进行诈骗
人脸效果更易取得对方信任,通过分析公众发布在网上的面部信息,并利用AI换脸技术,在视频通话中伪装成想成为的人,并通过视频电话的方式进行信息确认,获取信任进行诈骗。
3)利用转发微信语音进行诈骗
在盗取微信号后,便向其好友“借钱”,为取得对方的信任,通过转发之前的语音,进而骗取钱款。当前微信没有语音转发功能,但不法分子通过提取语音文件或安装非官方版本(插件),实现语音转发。
通过以上案例及AI诈骗方式可以看出,AI日趋广泛的应用会引发一些社会问题。为了让AI科技更好的造福人类,我国不断完善相关法律政策。
2019年2月,科技部在北京召开新一代人工智能发展规划暨重大科技项目启动会,成立了新一代人工智能治理专业委员会。
2019年6月,国家新一代人工智能治理专业委员会发布了《新一代人工智能治理原则》。
2019年9月,专委会正式发布《新一代人工智能伦理规范》。
2021年发布的《伦理规范》中提出了更加细化与严谨的6项基本伦理要求。
2022年3月,中共中央办公厅、国务院办公厅印发了《关于加强科技伦理治理的意见》(以下简称《意见》,明确指出科技伦理是开展科学研究、技术开发等科技活动需要遵循的价值理念和行为规范,是促进科技事业健康发展的重要保障。
科技是把双刃剑。未来,人工智能应如何约束
1)各方积极发力开发音视频造假检测技术
目前,联合国区域间犯罪与司法研究所、美国赛门铁克等公司研究检测虚假音视频技术。脸书与微软及麻省理工大学合作,发起了“假视频检测挑战”活动,旨在利用人工智能技术更好地甄别深度伪造和合成内容,开发对抗深度伪造技术滥用的方法和工具。我国互联网企业和研究机构等也积极开展对换脸换声、合成语音诈骗等技术的研究和检测。
2)针对人工智能伦理的高风险场景特别立法
应按照针对不同风险等级制定不同严苛程度的管理思路,可以通过分场景监管,做到有收有放,不仅降低人工智能伦理执法的难度,而且推动实现治理与发展的平衡。
3)提升科研机构和企业对人工智能伦理的认知及自律
在规避人工智能可能产生的伦理风险上,科研机构和企业更容易在相关实践中获得第一手信息,也更应该承担起构建安全人工智能技术的主要责任。
4)提高全社会科技伦理意识
伦理问题涉及到社会行为准则与规范,而治理伦理问题则需从公共管理的角度出发,在充分了解人工智能技术所带来的潜在社会影响,找到相对应的解决办法,并形成社会对人工智能伦理的共识。建议利用各种渠道广泛的进行科技伦理宣传、活动与交流,提升公众的科技伦理意识,进而加强全社会对人工智能伦理的广泛监督。
科技是把双刃剑,我们在享受科技带来福利的同时,也在接受考验。人工智能时代,有人利用AI技术思考的是如何推动人类社会进步,而有的人却利用AI做违法犯罪之事。我们能做的就是加强自身道德修养,守好道德法律底线,积极推动AI技术发展不断为人类谋科技福利,坚决反对利用AI技术做违法犯罪之事,同时加强防范意识,做好防范措施,防患于未然,不给不法分子可乘之机。
(来源:网络文章整理编辑,分享此文出于传递更多信息之目的,若有来源标注错误或侵犯了您的合法权益,请作者持权属证明与本网联系,我们将及时更正、删除,谢谢。)
最新评论