關燈 巨大 直達底部
親,雙擊螢幕即可自動滾動
第170章 詐騙團伙使用AI技術實施詐騙

公安部部長洪健峰在公安系統警務通中看到如下警情,更加覺得反詐騙是一項長期的工程,因為詐騙犯罪分子總是“與時俱進”,挖空心思將現代科技轉化為“生產力”。

今年4月20日11時40分,福州市某科技公司董事長郭先生的好友突然透過微信影片聯絡他,兩人經過短暫影片聊天后,那位好友告訴郭先生,自己的朋友在外地投標,需要430萬元的投標保證金,且需要公對公賬戶轉賬,所以想借用郭先生公司的賬戶轉賬。

好友向郭先生要了銀行賬號幾分鐘之後,就打電話過來,聲稱已經把款項打到郭先生的賬戶上,還把銀行轉賬底單的截圖透過微信發給了郭先生。

基於影片聊天信任的前提下,郭先生沒有核實好友的款項是否到賬,於11時49分先後分兩次把430萬元往對方發來的賬戶轉款過去了。

款項轉賬後,郭先生給好友的微信發了一條訊息,稱事情已經辦妥。但讓他沒想到的是,好友回過來的訊息竟然是一個問號。

郭先生隨即撥打好友的電話,對方說沒有這回事,此刻他才意識到竟然遇上了“高階”騙局,詐騙犯罪分子透過智慧AI換臉技術,佯裝成好友對他實施了詐騙。

這是一起典型的利用AI技術進行的詐騙。

詐騙分子透過使用他人真實姓名和照片,盜取他人微信與被害人聯絡,再利用“AI換臉”技術,與被害人進行短暫視訊通話,博取被害人的信任後實施詐騙的。

詐騙團伙是如何將AI技術介入騙局的呢?

詐騙分子首先是透過篩選,瞄準郭先生的微信作為詐騙目標,然後對郭先生的好友作進一步的分析,從郭先生好友所發朋友圈的相片中提取有關“換臉”資料,進而實施詐騙的。

那麼詐騙團伙運用AI技術以哪些方式來實施詐騙呢?

第一種是聲音合成。詐騙團伙透過騷擾電話錄音等來提取某人的聲音,獲取素材後進行聲音合成,從而可以用偽造的聲音騙過被害人。

例如,某公司的財務接到公司老闆的電話,要求立刻給供應商轉款20萬元,並將轉賬資訊以郵件形式傳送,轉款理由是避免繳納滯納金。由於老闆的口音十分逼真,該財務信以為真,在1小時內轉款完成,後來才發現被騙。

第二種是AI換臉。因為看到人臉後更易取得被害人的信任,騙子用AI技術換臉,可以偽裝成任何人,再透過影片方式進行資訊確認和實施詐騙。

第三種是轉發微信語音。除了AI換臉、合成語音外,還有一些詐騙手段也可謂防不勝防,在前不久就有騙子透過轉發微信語音的方式行騙。

在盜取微訊號後,騙子便向其好友“借錢”,為取得被害人的信任,詐騙分子會轉發之前的語音,進而騙取錢款。

儘管微信沒有語音轉發功能,但詐騙分子透過提取語音檔案或安裝非官方版本(外掛),就可實現語音轉發。

第四種是AI篩選受騙人群。值得一提的是,這些騙局中,騙子不是漫無目的地全面撒網,而是根據所要實施的騙術,透過AI技術篩選受騙人群,從而別有用心地鎖定特定物件。

例如,當進行金融詐騙時,詐騙團伙會經常蒐集投資資訊的人群,那麼這些人群就會成為他們潛在的目標。

針對花樣百出的智慧AI詐騙,警方提醒人們要提高警惕,從如下幾方面做好防範措施。

一、不輕易提供人臉、指紋等個人生物資訊給他人,不過度公開或分享動圖、影片等;

二、網路轉賬前要透過電話等多種溝通渠道來核驗對方的身份,一旦發現風險,及時報警求助;

三、如果有人自稱“熟人”或“領導”等,透過社交軟體、簡訊以各種理由誘導你匯款,務必要透過電話、見面等途徑核實確認,不要未經核實就隨意轉賬匯款;

四、不要輕易透露自己的身份證、銀行卡、驗證碼等資訊;

五、如不慎被騙或遇可疑情況,要注意保護證據立即撥打96110報警。