人工智能詐騙手法多樣化 Deepfake 換臉變聲資源皆可取自社交媒體 【即睇個人私隱自保十招】

| 袁耀坤 | 16-09-2023 03:40 | |

隨人工智能相關技術和應用工具日漸普及,相信市民不論在工作或日常娛樂都或多或少會接觸到一些與AI 聊天機械人相關的線上工具和應用程式。然而,綜觀近月以來的網絡騙案發展,與人工智能技術相關的詐騙活動愈趨頻繁,從美國到香港,Deepfake 換臉變聲以騙取受害人金錢的罪案數字都有上升趨勢。本港早前亦有相關Deepfake 金融詐騙案件出現,ezone.hk 對此也想跟各位讀者分享香港私隱專員公署日前發布的 10招保障個人私隱資料的小袐訣,唔想用AI 工具時,資料不幸被騙徒利用作不法行為,就快啲睇埋落去啦!

隨著人工智能相關技術的普及,我們在線上工具和應用中接觸到了越來越多的AI聊天機械人。然而,最近的網絡詐騙事件提醒我們,與AI相關的詐騙活動也在增加。Deepfake技術被用於模仿聲音,冒充他人進行金融詐騙。這些詐騙分子甚至使用受害人在網上社交媒體上提供的個人資料。在這個時代,保護個人私隱變得至關重要。私隱專員提供了十招保護個人私隱的建議,讓我們在享受AI帶來的便利的同時,也能保護自己的資料安全。

即刻【按此】,用 App 睇更多產品開箱影片

AI +Deepfake 詐騙手法多樣化

綜合《經濟日報》12日及《晴報》14 日報道,Deepfake 語音金融詐騙活動在美國日益嚴重,騙徒會利用人工智能生成的模仿真人聲音,冒充帳戶擁有者本人,向銀行發送指示進行轉賬或提款。更令人搶心的是,這些詐騙語音的生成素材正正來自受害人發布在網上社交媒體或使用其他線上工具時所提供的個人資料。美國電話語音安全審查服務公司Pindrop 的其中一名專家指出,微軟VALL-E等生成式AI系統只需採集受害人 3秒的說話語音就能生成任何詐徒所需的內容進行詐騙。

8 月下旬,本港警方首次成功偵破一個使用Deepfake技術進行金融詐騙的犯罪集團。該集團利用人工智能換臉技術,冒充一名已報失身份證的市民,詐騙金融機構獲得了7萬元的貸款。據警方表示,該詐騙集團嘗試了至少20次,但只有一次取得了成功。警方已向相關金融機構提供建議並加強了安全措施,相信已成功封堵了這個漏洞。儘管目前使用此技術而得手的案例並不多,然而,與人工智能和 Deepfake 技術相關的詐騙行為相信會在可見的將來愈趨常見,甚至騙徒「取材」的來源也不再只是常用的社交媒體,可能會在更流行的線上 AI工具上面。個人資料私隱專員鍾麗玲表示︰「隨著AI聊天機械人在我們的日常生活中越來越普及,用戶使用這些工具時,應同時知道怎樣保障自己的個人資料私隱。因此,我們向用戶建議 『自保』十招,希望公眾在享用新穎科技帶來的好處之餘,亦懂得保障自己的個人資料私隱。」

網絡個人私隱自保十招

其實使用社交媒體和線上 AI工具同樣需要對個人私隱資料時刻保持謹慎,因為兩種平台其實都是在處理用戶所提供的資料、圖像甚至說話錄音,騙徒隨時都有機會乘機盗取相關資料再到銀行等金融機構行騙。因此,學識如何保障個人在網絡上的私隱安全在這個 AI時代更加重要。

在登記或使用前

  • 細閱私隱政策、使用條款及其他有關處理資料的政策
  • 慎防假冒的AI聊天機械人的應用程式和釣魚網站
  • 如有相關選項,應調整設定選擇拒絕分享聊天紀錄

與AI聊天機械人對話時

  • 不要分享自己及他人的個人資料
  • 如有需要,提交改正或移除資料要求
  • 對網絡安全威脅提高警覺
  • 刪除聊天紀錄中不需要保留的對話

安全地使用AI聊天機械人

  • 謹慎使用AI聊天機械人提供的資料
  • 不要分享機密資料和檔案
  • 家長應在子女與AI聊天機械人對話時從旁指導

【熱門報道】Deepfake 床照影片勒索電郵湧現 多名市民無辜變成私密影像主角 【即睇防騙貼士保平安】

【熱門報道】問界新 M7 發布 配備華為高階智能駕駛 2.0【同場加映 ADS 2.0 體驗】

Source:hket、pcpd.org.hk、晴報

相關文章

Page 1 of 15