快訊

    避免AI被誤用 成犯罪幫兇! 工研院籲建立「可信任AI」生態系

    2022-12-02 12:39 / 作者 戴嘉芬

    人工智慧(AI)技術發展迅速,目前已能應用在製造、醫療、教育各種領域,但誤用AI也會對個人甚至整個社會帶來嚴重影響,像是利用Deepfake深偽技術來換臉,就是誤用AI的典型範例,甚至近年連犯罪集團也利用AI犯案詐騙,工研院今(2日)舉辦「AI數位韌性x永續創新」人工智慧產業論壇,呼籲國內產官學研界共同建立起「可信任AI」產業生態系。




    圖片
    工研院今(2日)舉辦「AI數位韌性x永續創新」人工智慧產業論壇,邀請各界與會討論AI前景。取自工研院




    工研院執行副總暨總營運長余孝先指出,工研院推動「AI平民化」,讓一般大眾也能受惠,走向AI無所不在的時代。在AI應用愈來愈廣泛後,自然也存在風險,未來必須防範AI被應用在犯罪領域。




    圖片
    工研院執行副總暨總營運長余孝先指出,台灣已進入「AI平民化」時代,籲產官學研界共同建立起可信任AI產業生態系。取自工研院




    工研院資通所副所長黃維中指出,目前全球逐漸重視「可信任AI」議題,各國並開始發展AI治理的規範,包括歐盟、美國以及GPAI人工智慧全球合作組織等,希望在符合人權、包容、多樣性、創新和經濟成長等原則下,負責地去採用AI技術。針對標準原則,台灣也藉參與ISO等國際標準組織,進而凝聚AI標準制定的共識。



    黃維中指出,AI進展愈來愈快,也發生很多用AI攻擊現實世界的案例,對產業或社會大眾造成影響。目前台灣產業使用的聊天機器人,幾乎都是特殊功能和特定目的,會出問題的機率不大。但像美國通用型聊天機器人如微軟「Tay」,甚至會說出種族歧視的言論,結果不到24小時就被下架。Meta正在測試中的聊天機器人BlenderBot 3也曾說出吐槽執行長祖克柏的言論。



    業界公認,創造一個「可信任AI」的驗證機制來做評估,將有助產業發展,例如銀行的人臉辨識,在國外被破解機率很高,如何去評估人臉辨識的方法或系統安全性,國際組織已發展出一個可行的標準,台灣現也能與國外同步接軌。 



    值得注意的是,犯罪集團運用機器人流程自動化(RPA)技術,此技術也被國外犯罪集團運用在大規模的「網路釣魚」,也成為這幾年來非常嚴重的資安議題。例如昨天(1日)刑事局才剛偵破台灣治安史首宗利用AI語音技術來撥打詐騙電話的案件,這個AI機器人可判斷民眾是否對投資有興趣,進而對潛在客群發送詐騙簡訊,在過去11個月間送出6千萬則詐騙簡訊。



    對此,黃維中表示,國外犯罪集團利用AI來詐騙已行之有年,但目前確實還沒有辦法來防範或解決,因為科技是「中性」的,關鍵在甚麼人去使用它,雖然在策略上,可以禁止某些人不能用這個科技,但這又牽涉到法律規範層面。對AI程式設計的人來說,可以盡量把它設計成不會對大眾、產業和社會造成傷害;包括工研院在內,都會發展相關資安技術。但道高一尺魔高一丈,最主要的關鍵還是在於使用者本身,人們要如何去使用高科技的AI,不會濫用、誤用AI,這才是關鍵課題。




    戴嘉芬 收藏文章

    本網站使用Cookie以便為您提供更優質的使用體驗,若您點擊下方“同意”或繼續瀏覽本網站,即表示您同意我們的Cookie政策,欲瞭解更多資訊請見