下載 beanfun! 一起SHOW!
組隊開SHOW,拼排位拿獎勵!
logo
留言
LINE
FB
複製
Sora一句話生成短片 專家:恐加劇資安挑戰
NOWnews
更新於 8 個月前

[NOWnews今日新聞] 隨著OpenAI推出可以「一句話創造一分鐘AI高畫質影片」的Sora平台示範影片成品後,不但以眼球經濟為核心的影視藝術創作產業受到巨大的震撼,更有潛在資安風暴正在生成。專家指出,過去大家都擔心會有超越專家能力的「超級人工智慧(Super AI)」出現,但現在「超級深偽(Super Deepfake)」欺詐技術,已隨著越來越多的網路AI影音服務就在眼前,若沒有適當的風險控制,將形成「深偽即服務(DaaS)」暗黑產業鏈。

KPMG安侯企業管理公司董事總經理謝昀澤表示,過去一段時間,以生成式AI技術創作或偽冒影片的深假技((Deepfake)越來越普及,但多數影片都無法達到高畫質、長時間,且多鏡位的品質,深偽的工具使用門檻也較高,使用者仍有機會肉眼識別。但Sora的橫空出世,卻一舉突破了這些障礙,其根據簡單的提示詞,所生成的4K超高畫質影片,真實感已經達到專業人士難以分辨真偽的程度。

謝昀澤強調,儘管Sora最初的目的是推進AI領域的創新,但其帶來的潛在風險不容被忽視。這項技術不但可能被用來製造更加精細和難以辨識的假新聞,對公眾意識形態、選舉、乃至國家安全構成前所未有的挑戰,連過去傳統的資安防護與認證基礎工程,如遠距身分識別等機制,都可能被撼動。

KPMG安侯企管公司執行副總經理林大馗依據近期資安情資分析,有多起犯罪集團利用深偽技術生成的AI人像來欺騙金融機構面部識別系統進行詐貸;更有多宗利用深度偽造技術針對跨國公司進行詐騙的事件,更造成了至少8億台幣的損失,顯示了以AI深偽技術結合傳統詐騙手法的「新智慧詐騙工程」正在蔓延。

謝昀澤認為,要防止被Sora等AI影片「耍啦」,必須有要靠「使用者提升AI風險素養」,及「服務廠商建構AI內容的透明度與可識別度」等兩大防禦策略。他也提醒,使用者對網路影音過去的認知是「有片有真相」,以後要轉變為「保持懷疑,確信來源」,才能夠在生成式AI普及的網路世界中,具備基本的「防深(偽)術」。

林大馗也建議,應用生成式AI提供服務的企業或服務提供商,未來的資安不只要重視傳統的「機密性」,並於所產出的成品提供「透明的告知或識別」,讓使用者可以輕易分辨是AI生成的內容外,更要對「真實性」加強驗證,建構足夠的防偽機制。

他舉例說明,針對所欲發佈影音檔案,使用AI反偽冒工具,透過在原始檔中添加雜訊或其他浮水印的技術,來阻擋超級深偽的偽冒或複製;企業在高風險的網路交易中,可考慮以零知識證明(ZKP)不透漏使用者自身資訊等新型密碼學技術,進行身分認證。林大馗表示,生成式AI究竟會成為未來眼球經濟的「沉浸式利器」還是「沉沒式利刃」,關鍵就在資安防護能力。

你可能也會喜歡
還想看更多你喜愛的文章嗎?
© 2024 Gamania Group
下載 beanfun! 一起SHOW!
組隊開SHOW,拼排位拿獎勵!
留言
轉傳
複製
beanfun! 採用網站分析技術為您帶來更優質的使用體驗,若您點選 "我同意" 或繼續瀏覽本網站,即表示您同意我們使用第三方 Cookie,欲瞭解更多資訊請見 隱私權政策。
下載beanfun!
瘋狂生活從 beanfun! 開始~
掃描 QR Code 立即下載
APP Store 或 Google Play 搜尋 beanfun! 下載
APP Store 搜尋 beanfun! 下載
Google Play 搜尋 beanfun! 下載
溫馨提醒您:於行動裝置安裝防護軟體
可提升裝置使用安全性
下載beanfun! 豐富你的內容
安裝應用程式,享有更多文章、小說和精彩的互動!
取消