【方保僑- 天方夜談】人工智能合成技術助長詐騙風險

| 方保僑 | 04-07-2023 12:33 | |
【方保僑- 天方夜談】人工智能合成技術助長詐騙風險

視像通話技術和人工智能合成技術的快速發展,為不法分子提供了新詐騙手段。警方指出,他們注意到香港已經出現了涉及人工智能合成技術的詐騙案件,例如,有不法分子利用人工智能合成技術,製作受害者親朋好友的偽造視像,再透過視像通話與受害者聯繫,試圖騙取財物。

另外,近日有網民表示收到來歷不明的FaceTime來電,引起視像通話詐騙的討論。來電可能是利用人工智能合成技術,冒充對象的容貌和聲音,製作虛假「身份」,以進行詐騙活動。除了FaceTime,其他可進行視像通話的應用程式,如WhatsApp、微信、Facebook Messenger等也有可能成為詐騙分子的目標,即使部分使用者會遮蓋手機的前置鏡頭,以免被錄像,但詐騙分子仍然可以盜取接聽者的聲音,從而進行詐騙活動。

為了防止被騙徒利用人工智能合成技術進行詐騙,以下是一些建議:

  • 勿接聽陌生視像通話:收到陌生視像通話,無論對方的容貌和聲音是多麼熟悉,建議不要接聽,或致電核實來電者的身份,確認對方是否曾透過視像通話致電給自己。
     

  • 保護個人資料和照片:不法分子或透過社交媒體等渠道獲取受害者的照片和聲音資料,從而製作出合成視像。因此,市民應設置社交媒體的隱私權限,避免個人資料和照片被盜用。
     

  • 了解人工智能合成技術的特點和限制:雖然目前的人工智能合成技術已經相當強大,但仍然存在一定的限制,例如,合成視像的表情和動作可能稍顯生硬,聲音可能存在一定程度的失真,市民應學習識別這些特點,以便更有效地防範詐騙。
     

  • 遇到詐騙行為時及時報警:如果市民懷疑遇到視像通話詐騙,應立即採取安全措施,例如與親朋好友核實情況、保存相關證據等。如果確認為詐騙行為,應即時通知警方,以便警方能夠採取適當行動。
     

  • 建立多重身份驗證:在涉及金錢交易和重要事項時,應建立多重身份驗證,如短信驗證、雙重密碼驗證等。這樣即使不法分子透過視像通話詐騙成功,也無法輕易獲取受害者的財物。

視像通話詐騙已成為一個日益嚴重的問題,隨著人工智能技術的發展,詐騙手法日益翻新,讓人防不勝防。對於這類詐騙行為,市民應提高警惕,加強防範,免招財物損失。政府、學校、企業等各方應當加強對市民的科普宣傳和教育工作,讓市民吸收更多資訊科技的新知識和應用,了解視像通話詐騙的形式和處理方法,同時政府應多關注相關技術的發展,適時修訂相應的法律及法規,以便更有效打擊視像通話詐騙。

(作者為香港資訊科技商會榮譽會長方保僑。題為編輯擬定。以上內容純屬作者個人意見,並不代表本網立場。)

【方保僑- 天方夜談】人工智能合成技術助長詐騙風險

Source:ezone.hk

Page 1 of 14