AI詐騙
以ChatGPT為代表的生成式AI快速發展,掀起了全球人工智能產業發展的又一波熱潮。但AI技術不斷進步,也帶來更多安全挑戰。
早前,香港警方披露了一宗AI“換臉”詐騙案件。一家跨國公司地方分部的職員受邀參加“總部首席財務官”發起的“多人視頻會議”,並按要求先後轉賬多次,將兩億港元分十五次轉到五個賬戶內。實際上,那場會議中,除了他自己以外,其餘與會人員全部是詐騙團隊通過“AI換臉”和“AI換聲”偽造的。
近年來,通過AI實現的聲音和畫面深度偽造技術門檻不斷降低,過去諸如影視大片中才能出現的場景,如今只需要在互聯網上花費數元購買一個軟件就能一鍵生成。這種深度偽造導致受害者“耳聽為虛”、“眼見非實”。
面對防不勝防的AI詐騙,人們需要強化反詐意識。比如在與別人視頻通話時,可讓對方在臉部面前揮手,因為這樣做就會對其臉部數據造成干擾,偽造的人臉會抖動、閃現等。在點對點的溝通中,也可問一些只有對方知道的問題,驗證對方的真實性。
防詐最重要的還是保護好自己的私隱信息。不法分子是通過撥打騷擾電話、社交平台上的影像資料等,獲得受害者的聲音、肖像等信息,進而偽造聲音和圖像。因此,防止私隱信息洩露是防詐的重要一環。
雨人