中新网太原12月12日消息,山西省消费者协会刚发了个警示,专门提醒大伙儿注意一种利用AI换脸和AI配音搞诈骗的新手段。咱们先说说这事到底怎么来的。到了2025年,AI技术要是大规模普及了,骗子用这些深度伪造的技术来骗钱,那可真真假假,谁也分不清楚。 山西省消协的杨杰英记者说,这就像是一场连环计。骗子第一步是在抖音、微信视频号这些平台上搜刮你的或者你亲友的脸视频和语音。他们把这些材料拿去训练AI模型,接着就能弄出跟真人一模一样的视频和声音。然后他们会找个急事,比如说是出车祸了,或者说是公司业务急用钱。利用你着急的心理,他们会马上给你打电话或者发视频,要求你赶紧往指定的账户里转账。 这种骗局特别常见的几种情况:比如有的骗子会把你家孩子的脸给换上去,通过视频告诉你“爸妈生病了急用钱”;或者是把你们领导的脸给换掉,让财务人员在视频会议里赶紧掏钱;甚至还有更狠的,他们会弄一个假警察的视频,吓唬你说你犯法了,得把钱转到所谓的“安全账户”去核查。 对付这种拿生物特征骗人的招数,山西消协给出了一个“三不二要”的口诀。“三不”就是别轻易相信别人、别转账、也别泄露个人信息。哪怕你在视频里看到了熟人的脸或者听着是熟悉的声音,你都得留个心眼儿。没确认清楚对方是谁之前,千万别随便转账。还有一点很重要,平时在社交媒体上少发那些清晰的大头照和语音。 “二要”就是要核实和要警惕。要是有“亲戚朋友”在视频里借钱,你先别答应,赶紧挂了电话用你自己存的电话号码回拨过去核实一下;也可以找个共同的朋友问问这事儿是不是真的。平时多留个心眼儿,看看对方视频里的人是不是表情特别僵硬、眼睛不会眨、说话口型对不上、或者声音听着像机器人一样断断续续。你要记住一点:公安局、检察院、法院这些单位是绝对不会通过视频或者电话让你把钱转到所谓的“安全账户”里去的。凡是让你别告诉别人、让你断绝跟外界联系的,基本上就是诈骗。 山西消协最后提醒大伙儿:如果真的发现自己被骗了,第一时间打110报警或者去派出所报案。把对方的账号、电话还有聊天记录都带上。另外赶紧联系银行客服或者用手机APP把对方的账户给冻结住了,这样能尽量减少损失。