快訊

    【眼見不再為實】Sora超級深偽技術問世 KPMG提醒恐製成假新聞、影響選舉並危及國安

    2024-02-27 10:37 / 作者 吳馥馨
    人工智慧示意圖。路透社
    KPMG今(27)日表示,當OpenAI推出可以「一句話創造一分鐘AI高畫質影片」的Sora平台示範影片成品後,除了影視藝術創作產業受到巨大震撼,更有潛在資安風暴正在生成。KPMG安侯企管公司董事總經理謝昀澤表示,為防止被Sora等AI影片「耍啦」,須有賴「使用者提升AI風險素養」,及「服務廠商建構AI內容的透明度與可識別度」等兩大防禦策略。

    謝昀澤說,以生成式AI技術創作或偽冒影片的深假技術(Deepfake)越來越普及,但多數影片都無法達到高畫質、長時間,且多鏡位的品質,深偽工具的使用門檻也較高,使用者仍有機會肉眼識別。

    但是,Sora橫空出世,卻一舉突破了這些障礙;根據簡單的提示詞,所生成的4K超高畫質影片,真實感已經達到專業人士難以分辨真偽的程度。

    謝昀澤認為,過去大家都擔心會有超越專家能力的「超級人工智慧(Super AI)」出現,但是現在「超級深偽(Super Deepfake)」欺詐技術,已隨著越來越多的網路AI影音服務就在眼前,如果沒有適當的風險控制,將形成「深偽即服務(Deepfake as a Service, DaaS)」的暗黑產業鏈。

    謝昀澤強調,儘管Sora最初的目的是推進AI領域創新,但其帶來的潛在風險不容被忽視。這項技術不但可能被用來製造更加精細和難以辨識的假新聞,對公眾意識形態、選舉、乃至國家安全構成前所未有的挑戰,連過去傳統的資安防護與認證基礎工程,如遠距身分識別等機制,都可能被撼動。

    KPMG安侯企管理公司執行副總經理林大馗依據近期資安情資分析,有多起犯罪集團利用深偽技術生成的AI人像來欺騙金融機構面部識別系統進行詐貸;更有多宗利用深度偽造技術針對跨國公司進行詐騙的事件,更造成了至少新台幣8億元的損失,顯示了以AI深偽技術結合傳統詐騙手法的「新智慧詐騙工程」正在蔓延。

    謝昀澤認為要防止被Sora等AI影片「耍啦」,必須有要靠「使用者提升AI風險素養」,及「服務廠商建構AI內容的透明度與可識別度」等兩大防禦策略。

    謝昀澤提醒,使用者對網路影音過去的認知是「有片有真相」,以後要轉變為「保持懷疑,確信來源」,才能夠在生成式AI普及的網路世界中,具備基本的「防深偽術」。

    林大馗也建議應用生成式AI提供服務的企業或服務提供商,未來的資安不只要重視傳統的「機密性」,並於所產出的成品提供「透明的告知或識別」,讓使用者可以輕易分辨是AI生成的內容外,更要對「真實性」加強驗證,建構足夠的防偽機制。
    吳馥馨 收藏文章

    本網站使用Cookie以便為您提供更優質的使用體驗,若您點擊下方“同意”或繼續瀏覽本網站,即表示您同意我們的Cookie政策,欲瞭解更多資訊請見