通过AI换脸和拟声技术,10分钟骗430万元;AI虚拟人在聊天中筛选出受害者,人工接力实施诈骗……近期,多起宣称利用AI技术实施诈骗的案件引发关注。
“新华视点”记者近日与公安部门核实确认,“AI诈骗全国爆发”的消息不实,目前此类诈骗发案占比很低。但公安机关已注意到此犯罪新手法,将加大力度会同有关部门开展技术反制和宣传防范。
专家表示,随着AI技术加速迭代,由于使用边界不清晰,涉诈风险正在积聚,需要高度警惕。
“换脸”式诈骗引发焦虑:你会被亲友的脸骗到吗?
近日,内蒙古包头警方通报一起利用AI实施诈骗的案件,福州市某公司法人代表郭先生10分钟内被骗430万元。据通报,骗子通过AI换脸和拟声技术,佯装熟人实施诈骗。
该案披露后,不少报道称需警惕“AI诈骗潮”到来,并曝光多起类似案件。如江苏常州的小刘被骗子冒充其同学发语音、打视频电话,小刘看到“真人”后信以为真,“借”了6000元给骗子。
那么,“AI诈骗潮”是否真的到来了?
记者调查了解到,AI在技术上确实能做到换脸、拟音,但被用来进行“广撒网”式诈骗需要具备很多条件。
2024-11-20 17:30:30
2024-11-18 13:42:43
2024-11-15 13:28:15
2024-11-13 14:09:21
2024-11-12 13:46:17