每日投教 | 【2025年10月20日】AI变声来电?小心“熟人陷阱”
2025-10-17
1
最近不少骗子用AI技术“克隆声音”,假冒亲友打电话借钱。短短几秒语音采样,就能生成真假难辨的“声音分身”。
防骗提示:
接到“熟人”转账请求,务必通过视频或见面核实身份,不轻信语音、照片或截图。AI能复制声音,但复制不了常识与警惕心。
声明:本栏目仅作为投资者教育用途,不构成任何投资建议。投资者据此操作,风险自担,东吴证券力求本栏目所涉及信息准确可靠,但并不对其准确性、完整性和及时性作出任何保证,对因使用本栏目信息而引发或可能引发的损失不承担任何责任。