快訊

    分析:若發展AGI恐危及人類 OpenAI宮鬥劇突顯AI未來不同主張

    2023-11-21 14:20 / 作者 李寧怡
    遭OpenAI無預警開除的執行長阿特曼。圖為16日在舊金山參加APEC人工智能會議。美聯社
    在生成式人工智慧工具ChatGPT最火紅的時刻,它的開發商OpenAI將執行長阿特曼開除,掀起員工揚言集體出走的風暴。雖然OpenAI董事會迄未詳述原因,但外界猜測AI快速發展帶來的安全疑慮有關。這場OpenAI人事地震也突顯業界對AI發展已出現意見分歧的兩大陣營。

    路透社分析,其中一派就如阿特曼,認為AI研發就是應該快速發展並公開供公眾使用,藉壓力測試不斷改善AI的能力。另一派則主張安全至上,AI工具應在實驗室內研發及測試完成,確定安全性後再公諸於世。

    38歲的阿特曼被認為是生成式AI技術的代表人物,17日遭OpenAI四名董事投票決定開除。

    雖然大多數用戶是在工作、學業上借助ChatGPT的威力,但觀察家憂心的是未來可能出現的「通用人工智慧」(artificial general intelligence,AGI),不必使用者提示就能完成更複雜的任務。有識之士擔憂AGI工具可能自行接管國防系統、產生政治文宣或自行生產武器。

    OpenAI母公司在2015年以非營利機構的性質成立,就是要確保公司不會走向以牟取利益為目標,發展出危險的AGI工具。OpenAI的公司章程也提及,危險的AGI可能「危害人類或導致過度集權」。但阿特曼在2019年就成立了營利性的公司,為了募資及實現其他目標。

    許多人擔憂AI工具發展出高度智慧後可能變得難以控制,引發災難。許多AI科學家信奉「有效利他主義」(effective altruism),相信AI發展應該以擴大人類利益為目的。

    「訓練AI」與「安全至上」的衝突

    OpenAI官網表明其成立宗旨是「為了擴大人類的利益,而非OpenAI 投資者的利益」。共同創辦人兼首席科學家蘇茨克維(Ilya Sutskever)就是「有效利他主義」的信奉者之一,他17日也對開除阿特曼投下贊成票(雖然20日已公開表示後悔)。

    研發以AI自動駕駛車輛的專家之間,也有類似的意見分歧。其中一派認為必須讓車子在人口密集的都會區馬路上行駛,才能了解車輛的能力和習性;另一派則認為不可知的風險太大,必須對自動駕駛車的研發過程做更多約束。

    ChatGPT這類生成式AI工具,使用者只要簡單提問,它就能產生相應的內容,如文章、程式碼、或逼真的圖像。過去一年間ChatGPT在全球引發熱潮,也激發更多有關開發過程的監管問題。

    倡議AI安全的「猜想AI」(Conjecture AI )執行長雷希(Connor Leahy)就說:「問題在於,這只是如同社群媒體或加密幣的另一種產品嗎?或它是一種有能力超越人類、變得無法控制的科技?」

    據傳,蘇茨克維也曾擔憂阿特曼太快讓用戶使用最新產品,可能因此犧牲了安全,「未來會不會是機器的天下?」

    蘇茨克維和一名同事7月間曾撰文表示:「對於可能擁有超級智慧的AI,我們沒有操縱或控制的解決方案。」文章也說,「人類沒有能力有效監管比我們聰明太多的AI系統」。

    臨時執行長希爾曾主張放慢AI研發腳步

    最令人關切的是OpenAI在本月6日宣布的一系列新的商業化產品,包括ChatGPT-4 Turbo與類似小幫手的的Assistants API。

    ChatGPT去年11月問世以來吸引大批資金,包括微軟注資的100億美元,Google母公司Alphabet 、亞馬遜(Amazon.com)也投資數十億美元。

    OpenAI臨時執行長希爾,在阿特曼遭開除後臨危受命。路透社


    之後,新的生成式AI產品公司如Anthropic 、ScaleAI如雨後春筍般成立,全球政府則努力跟上監管的腳步。

    OpenAI在19日任命的臨時執行長希爾(Emmett Shear)曾創辦直播平台Twitch。他9月曾在社群媒體主張AI發展應「放慢」,「如果我們現在的速度是10,暫停就是降到0。我想我們應該把目標放在1至2。」

    不過希爾接任OpenAI執行長後,20日撰文表示阿特曼並非因為安全問題與董事會有歧見才被開除。他表示將聘用獨立調查員,徹底調查導致阿特曼被撤職的過程,並做出完整報告。他也表示,未來幾週的首要之務是確保對客戶提供最好的服務。
    李寧怡 收藏文章

    本網站使用Cookie以便為您提供更優質的使用體驗,若您點擊下方“同意”或繼續瀏覽本網站,即表示您同意我們的Cookie政策,欲瞭解更多資訊請見