用AI換臉來詐騙,防不勝防?
摘要:而這些詐騙分子之所以能夠進行AI換臉、合成聲音,就在于他們掌握了一定的受騙人信息,比如受騙人的照片、視頻、語音等。二是,受騙人的個人信息被有意泄露甚至售賣。
隨著人工智能的迅猛發展,詐騙團伙的詐騙手段也越來越科技化,不知不覺,他們竟然已經用上了AI換臉技術。近日,包頭警方發布一起利用人工智能(AI)實施電信詐騙的典型案例,福州市某科技公司法人代表郭先生10分鐘內被騙430萬元。
端詳案情的細節,可以說是細思極恐。郭先生的“好友”是通過微信視頻聯系到他,兩人經過短暫聊天后,郭先生才轉賬的。這也就是說,騙子不僅盜取了他的好友微信,還直接利用AI合成了好友的人臉和聲音,如此以假亂真,讓人防不勝防。
以往,針對朋友借錢或其他網絡轉賬,我們常常提醒大眾要打個電話或視頻核實一下,確認后再轉賬。然而現在,這種“核實”心理反而被利用了,試問,連眼睛和耳朵都可以赤裸裸被欺騙,還有什么驗證方式能夠讓我們放心地進行網絡交易?這件事情之所以能沖上熱搜,這便是最大的痛點,令人迷茫而恐懼。
而這些詐騙分子之所以能夠進行AI換臉、合成聲音,就在于他們掌握了一定的受騙人信息,比如受騙人的照片、視頻、語音等。那么,他們是從哪里獲取的這些個人信息?
可以想見的渠道主要有兩個,一是,有可能來自受騙人自己對外公開的社交賬號,比如微博,只要不是博主主動設置自己發布的內容僅在一定范圍內可見,那么理論上任何人都是可以搜索查看,甚至還可以看到博主和好友的互動。二是,受騙人的個人信息被有意泄露甚至售賣。
所以,AI詐騙看似一個新問題,其實又回到了個人信息保護上。正如有業內人士分析稱,“我覺得科技的進步也讓防范詐騙的難度在提升。發生的原因還在于信息爆炸導致的信息泄露過度。”一方面,這需要個人在日常網絡行為中,注意不過分暴露個人信息;另一方面,也需要嚴格規范技術的開發和應用,完善相關授權機制。
去年12月,《互聯網信息服務深度合成管理規定》正式發布,關于授權同意的原則提到,深度合成服務提供者和技術支持者提供人臉、人聲等生物識別信息編輯功能的,“應當提示深度合成服務使用者依法告知被編輯的個人,并取得其單獨同意”。換句話說,一些AI軟件未經“主人”授權就隨意生成人臉人聲,是違法的。
詐騙分子之所以能夠鳥槍換炮,就是因為之前他們可以購買的是姓名、住址、親友關系等社會信息,而如今他們可以獲取人臉、人聲等生物信息了,并且可以利用技術軟件進行合成。那么,是誰在充當這個技術中介?這是非常重要的一環,只要打斷了這個中間環節,AI詐騙也就失去了技術前提。
從目前爆出的案例來看,對于AI詐騙,基本都是事后追查打擊,這其實是很被動的。接下來,治理AI詐騙的工作應該進一步前置,多在預防環節下功夫。而對個人信息的保護,就是最好的預防。
我們常說,科技是一把雙刃劍。如果前些年,科技的傷害之刃還處于一種“劃傷”階段,那么如今在一些領域已經出現“刺痛”感了。而疼痛是保持清醒最好的方式。眼下,看著別人被騙幾百萬,所有人都應該警惕,這樣的技術侵害是無差別的:任何人的臉與聲皆可合成,即使不被用于詐騙,誰又能保證不被用于其他侵害呢?
責任編輯:楊姍姍
查看心情排行你看到此篇文章的感受是:
版權聲明:
1.凡本網注明“來源:駐馬店網”的所有作品,均為本網合法擁有版權或有權使用的作品,未經本網書面授權不得轉載、摘編或利用其他方式使用上述作品。已經本網授權使用作品的,應在授權范圍內使用,并注明“來源:駐馬店網”。任何組織、平臺和個人,不得侵犯本網應有權益,否則,一經發現,本網將授權常年法律顧問予以追究侵權者的法律責任。
駐馬店日報報業集團法律顧問單位:上海市匯業(武漢)律師事務所
首席法律顧問:馮程斌律師
2.凡本網注明“來源:XXX(非駐馬店網)”的作品,均轉載自其他媒體,轉載目的在于傳遞更多信息,并不代表本網贊同其觀點和對其真實性負責。如其他個人、媒體、網站、團體從本網下載使用,必須保留本網站注明的“稿件來源”,并自負相關法律責任,否則本網將追究其相關法律責任。
3.如果您發現本網站上有侵犯您的知識產權的作品,請與我們取得聯系,我們會及時修改或刪除。