關燈 巨大 直達底部
親,雙擊螢幕即可自動滾動
第174章 詐騙集團用AI技術實施詐騙的內幕

公安部刑事偵查局偵查員李建明和反詐志願者王向陽,近日又成功營救了一名被“朋友”賣到緬北做“狗推”的受害人小王。

小王回國後向人們透露了緬北詐騙集團用AI技術實施電信詐騙的內幕。

詐騙集團設立資訊拓展組,資訊拓展組透過大資料等技術分析後篩選受騙人群,從而進一步鎖定特定物件作為目標客戶。

資訊拓展組將目標客戶確定之後,交給資料搜尋組進行相關的資料搜尋。

資料搜尋組將所獲取目標客戶的資料交給交技術合成組,技術合成組在獲取了受害人及其好友的關係資訊、掌握了很多受害人好友的圖片、音影片等資訊後,輕而易舉地完成AI換臉、合成語音、轉發微信語音等,最後交給“狗推”實施詐騙。

這種藉助 AI 換臉和擬聲技術進行的電信詐騙,標誌著電信詐騙已經進入智慧化、定製化時代,專屬於每個人的詐騙劇本或許正在路上。詐騙已經進化到如此可怕的程度,值得所有人謹慎對待。

在實際生活中,很多人連純文字聊天都分不清真偽,想要一眼辨別出AI照片和AI影片也實屬強人所難了,更別說還有各種以假亂真的AI語音、AI換臉甚至實時的AI換臉影片聊天。微信通話,影片聊天,以假亂真,防不勝防。

世人不得不接受一個事實,A換臉、合成聲音的技術已相當成熟,這就說明了AI換臉的成本已相當低,換個角度看就是,使用AI詐騙的成本已經很低了。

其實,製作一套“露臉且說話”影片成本低至幾十元,只需提供正面照就能生成影片,不僅眼睛、嘴巴、頭會動,而且提供文字說話的口型也能對上,幾個小時就能完成製作。

對此,警方鄭重提示,對突其如來的電話要保持高度的警惕,即使是來自認識的人,因為來電顯示的號碼可能是偽造的。

如果有人自稱“熟人”“領導”透過社交軟體、簡訊以各種理由誘導你匯款,務必透過電話、見面等途徑核實確認,不要未經核實隨意轉賬匯款,不要輕易透露自己的身份證、銀行卡、驗證碼等資訊。另外,不輕易提供人臉、指紋等個人生物資訊給他人,不過度公開或分享動圖、影片等;陌生連結不要點,陌生軟體不要下載,陌生好友不要隨便加,防止手機、電腦中病毒及微信、QQ等被盜號。如不慎被騙或遇可疑情形,請注意保護證據,並立即撥打96110報警。最後,期待相關部門加強對人工智慧技術的監管和對違法行為的打擊力度,維護網路秩序和公眾利益。

警方特設的網路安全教育展區,AI換臉技術吸引了大批市民好奇的眼光。

展區現場上,工作人員使用手機為體驗者拍影片或照片,隨後在資料庫中選擇其他人的照片對體驗者的面部進行替換,接著後臺就會自動合成、輸出一條換臉後的影片。

“太神奇了吧,這樣發給親友真的很難辨別。”體驗過換臉技術的市民感慨不已,真切意識到個人資訊保護的重要性。

“不管你是公眾人物還是普通人,只要有一段影片或一張照片,再有一段通話錄音或語音,就能變出另一個‘你’。” 展區現場工作人員介紹道。

被困緬北後被解救回國的受害人小王回國後透露,如今,緬北詐騙集團明白現在人們的防騙意識提高了,透過微信文字等很難再騙到錢,很多人要視訊通話或打電話見人、聽聲音確認後才會借錢。

於是,詐騙集團就“與時俱進”,迅速成立資訊拓展組、資料搜尋組、技術合成組,透過AI人工智慧技術來實現冒充他人的身份進行詐騙。