AI可以變造你的聲音與人像,如有從陌生的親人電話來要錢,先要報警查證—

by | Jul 3, 2025 | 華人世界 | 0 comments

AI可以變造你的聲音與人像,如有從陌生的親人電話來要錢,先要報警查證—

財神報華人世界—記者任歌綜合報導–

科技進步騙術跟著進步,越來越多的犯罪分子使用生成式AI來實施語音詐騙。根據報導,今年2月,在美國科羅拉多州的一名62歲母親琳達‧羅恩接到疑似來自綁匪的電話,要求她支付贖金以換取26歲女兒的安全。羅恩隨後支付了2,000美元的贖金後,才發現女兒一直安全地待在家裡。

羅恩事後指出,在通話的當下,她有思考過這可能是一個騙局,但電話中女兒的聲音和哭聲讓她,指出愈來越多的不法分子利用生成式AI來模仿目標身邊親友的聲音,以增加騙局可信度。

防毒軟體公司邁克菲(McAfee)也表示,只需要3秒的語音便能複製出一個聲音,且相似度高達85%。53%的人經常在網路上公開分享自己的語音內容,如YouTube、Podcast,或是在社群媒體上分享自己的影片,這使得犯罪分子很容易取得語音材料。

在此類型的語音詐騙中,犯罪分子通常會假冒受害者熟悉的人,編造緊急情境,如:「我出車禍了,需要匯款」、「爸媽,我被綁架了」,加上聲音與受害者的親人幾乎一樣,使受害者在慌亂中難以分以下整理一些可以防範AI語音詐騙的方法,包括防範與實際接到詐騙電話時可以做的事。

由台灣大哥大推出的一款全方位防詐騙App,專為協助用戶辨識、封鎖詐騙電話、簡訊與惡意網站而設計。

反詐戰警能即時偵測異常的通話行為,並將其標示為高風險門號,幫助用戶遠離詐騙風險。此外,透過持續學習方案行銷門號的通話行為,能協助將擁有相同行為的門號標示為「推銷/廣告」,減少接到惱人電話的次數。

記住!陌生電話號碼不要接聽,陌生人來電不要亂哈拉,只要談錢或要你付款的電話立即報警!

熱門文章