今年3月,犯罪分子使用人工智慧软体deepfake冒充执行长的声音,要求转帐,诈骗了高达243000美元,网络犯罪专家称这是骇客攻击使用人工智慧的不寻常案例。
据《华尔街日报》报导,诈骗犯透过模仿能源公司母公司执行长的声音,说服能源公司的执行长在一小时内转账,这是未来的一个令人不安的愿景,数位假讯息变得如此进步,甚至连老板的电话都无法信任。
能源公司的保险公司Euler Hermes Group SA向警方报案,该公司拒绝透露其中任何一家公司的名称。目前为止,警方还无法确定任何嫌犯的身分,但能源公司执行长转给匈牙利帐户的资金已经被转到墨西哥,并且从那里被分发给更多人。
这家能源公司的执行长表示,他认识母公司执行长的声音,特别指出了声音的德国口音和他说话的语气。虽然仍然不知道诈骗者究竟是如何训练人工智慧来模仿这特定的声音,但这证实deepfake声音已经变得非常危险的逼真和准确了。
这也提醒我们,不要随便接陌生人的电话,如果一定要,也最好短时间挂断,小心诈骗集团,提取声纹特征,人工合成假声音。
据《华尔街日报》报导,诈骗犯透过模仿能源公司母公司执行长的声音,说服能源公司的执行长在一小时内转账,这是未来的一个令人不安的愿景,数位假讯息变得如此进步,甚至连老板的电话都无法信任。
能源公司的保险公司Euler Hermes Group SA向警方报案,该公司拒绝透露其中任何一家公司的名称。目前为止,警方还无法确定任何嫌犯的身分,但能源公司执行长转给匈牙利帐户的资金已经被转到墨西哥,并且从那里被分发给更多人。
这家能源公司的执行长表示,他认识母公司执行长的声音,特别指出了声音的德国口音和他说话的语气。虽然仍然不知道诈骗者究竟是如何训练人工智慧来模仿这特定的声音,但这证实deepfake声音已经变得非常危险的逼真和准确了。
这也提醒我们,不要随便接陌生人的电话,如果一定要,也最好短时间挂断,小心诈骗集团,提取声纹特征,人工合成假声音。
评论
发表评论