ChatGPT生成式AI興起,大大幫助人類在知識資訊彙整,甚至是音樂、繪圖和文字創作的能力;但負面影響也接連出現,例如學生若用ChatGPT來撰寫論文、備審資料將會失去原創性、公平性。現在就連詐騙集團也蠢蠢欲動,利用生成式AI技術來達成欺詐目的。
利用AI技術犯罪,最典型例子就是使用「Deepfake」深偽技術換臉;去年刑事局偵破台灣治安史首宗利用AI語音來撥打詐騙電話的案件,這個AI機器人能自行判斷民眾是否對投資有興趣,進而對潛在客群發送詐騙簡訊,在過去11個月間送出6千萬則詐騙簡訊。
工研院資通所副所長黃維中曾受訪表示,國外犯罪集團利用AI來詐騙已行之有年,但目前確實還沒有辦法來防範或解決,因為科技是「中性」的,關鍵在甚麼人去使用它。對AI程式設計的人來說,可以盡量把它設計成不會對大眾、產業和社會造成傷害。但道高一尺魔高一丈,最主要的關鍵還是在於使用者本身,人們要如何去使用高科技的AI,不濫用甚至誤用AI,這才是關鍵課題。
資安業者Gogolook近日也指出,在生成式AI如ChatGPT誕生後,預估今年會慢慢出現運用AI技術的大量可疑資訊,如農場文章的產製成本也將因此大幅下降。
除了運用AI技術進行詐騙行為外,Gogolook也發現隨著台灣時事熱點更迭,詐騙集團使用的話術與手法也會跟著轉變,包含LINE與Telegram在內的通訊軟體,皆成為謠言與詐騙訊息滋生的溫床;其中,「假冒LINE輔助認證」以及要求填寫個資的「Google表單詐騙」,是目前數量最高的兩大新型態詐騙訊息!
詐騙集團常利用通訊軟體申辦假帳號,導致時常有大量假投顧帳號拉民眾進入投資群組外,也會藉由假冒親友或各大品牌官方帳號要求受害者進行「LINE輔助認證」,若不慎按照可疑連結中的指示提供電話號碼、密碼和手機簡訊認證碼等個資,就會有相當高的機率讓帳號被不肖人士盜用。
另一個新型態詐騙類型則為「Google表單詐騙」,詐騙集團利用免費的Google表單將產品試用、貸款申請等內容製作成問卷發放大眾填寫,實則難以判斷真偽,易造成個資外流。
此外,多次在通訊軟體中瘋傳過假冒企業官網的「中獎詐騙」、加入LINE群組免費送貼圖的「貼圖詐騙」,皆為騙取民眾個資的常見通訊軟體詐騙類型,不論是可疑連結、訊息或錢包地址都可以透過訊息查證機器人「美玉姨」查詢。大家務必提高警覺,千萬不要點選來路不明的網址,也不要隨意填寫個資及下載不明應用程式!