快訊

    AI聊天機器人經常編造內容 有專家認為無法解決

    2023-08-01 22:33 / 作者 陳家齊
    機器人與人工智慧(AI)示意圖。路透社
    ChatGPT等火紅的人工智慧聊天機器人,雖然看似上天下海無所不知,卻經常編造內容,給出錯誤答案。有專家認為,這種業界廣稱為AI幻覺(hallucination)的狀況,可能永遠無法解決。

    創造Cluade 2聊天機器人的Anthropic共同創辦人阿莫黛(Daniela Amodei )說:「我不認為今天有哪個AI模型不受幻覺問題影響。這些模型就是設計來預測下一個字,因此某種程度都會出現不準確的狀況。」

    Anthropic公司以及開發ChatGPT的OpenAI公司都表示,他們正在設法訓練這些AI模型,或者說是大型語言學習模型(large language models),可以確保不編造答案。但是,要達到這個結果要花多久時間,或者說,AI要多久才能給出可以信賴的醫療建議,則還要觀察。

    華盛頓大學計算機語言學實驗室主任,語言學者班德(Emily Bender)認為,這個問題無法獲得解決,「這是修不好的,這項科技與外界提倡要達成的用途,有本質上的不合。」

    OpenAI執行長阿特曼(Sam Altman)今年6月訪問印度時,被德里印度理工學院(IIT-Delhi)的教授巴格勒問到這個問題。阿特曼當時回答說,他認為一年半到兩年內,可以把AI幻覺的問題處理到很好的狀況。

    但是班德質疑阿特曼過於樂觀。她說,這些語言學習模型是訓練用來給出特定的語句後,去預測接下來會有的語句,就好像輸入法常會有的「自動完成」功能,當我們只輸入頭幾個拼音、字母時,手機、電腦會預先猜我們要輸入的完整拼字或者字句。

    班德說,像是ChatGPT、Cluade 2或者Google的Bard,都是把這種「自動完成」往上提升到另一個層次。但基本來說,這些AI聊天機器人也只是預測可能的下一個段落該怎麼寫。

    而只要是用來產出文字,班德說,這些語言模型就是被訓練來「編出故事」。它們很會模仿各種文本的風格與形式,例如法律合約、十四行詩、或者電視劇本,但是既然是編造文字,它們遇到貌似合理的文句,就有可能拿來採用,這都是機率的問題。

    就算假以時日訓練AI模型給出更「正確」的文句,班德表示,這可能造成更大的問題,因為AI所犯的錯可能變得更隱晦,更難被審稿的人看出哪裡有錯。

    不過,為市場行銷公司提供文稿產出模型的Jasper AI公司總裁歐利克(Shane Orlick)說,他們的客戶反而覺得AI編故事的幻覺狀況是個優點。他說,經常有客戶向他們反映,Jasper好像突發奇想給了許多他們本來沒想到的角度,給出更大的探索空間。

    歐利克說,他認為AI的編造問題需要解決,但這可能要由Google這類在核實網路搜尋結果上有龐大處理經驗的大型公司來解決。他說,「我相信狀況應該會愈來愈好」。

    不過,OpenAI的執行長阿特曼在印度也承認,對於ChatGPT給出的答案,至少現在不能太輕信,他說:「對於ChatGPT給的答案,我的信任程度大概會比地球上任何一個人給的答案要更低。」
    陳家齊 收藏文章

    本網站使用Cookie以便為您提供更優質的使用體驗,若您點擊下方“同意”或繼續瀏覽本網站,即表示您同意我們的Cookie政策,欲瞭解更多資訊請見