快訊

    「AI教父」宣布從谷歌離職:悔畢生工作 憂機器人終成新世紀的核彈

    2023-05-02 12:24 / 作者 林宜萱
    有「AI教父」之稱的電腦科學家辛頓,圖為2017年12月。路透社
    有「AI教父」之稱的人工智慧專家辛頓(Geoffrey Hinton)近日從工作多年的谷歌(Google)離職,《紐約時報》1日刊出他的專訪。辛頓表示,他後悔自己畢生的工作,因為在科技巨頭的激烈競爭下,道德倫理已不再是首要考量,不斷推陳出新的人工智慧技術終有一天可能使「殺手機器人」成真,對人類造成威脅。

    《紐時》報導,辛頓2012年與兩名學生在多倫多大學研究的人工神經網路(ANN),是近年來人工智慧發展的基礎。各大科技巨頭現在將人工智慧視為科技產業的未來,無不競相開發自動學習與思考能力越來越靈活的機器人、或生成式人工智慧,例如ChatGPT,引發業界一些專家擔憂和批評。

    今年3月,約1000名科技專家連署發表一封公開信,呼籲暫緩開發新的AI系統半年,因為這項技術對社會和人性有風險。數天後,人工智慧促進協會 (Association for the Advancement of Artificial Intelligence)19名業界領袖也發表公開信提出警告,包含微軟的科學總監霍威茲(Eric Horvitz)。

    辛頓沒有在上述兩份公開信上簽名,因為當時他仍任職於谷歌,不想批評自家或其他科技公司。不過,而今辛頓也加入了反對者的行列;他4月向谷歌告知離職,為的是暢所欲言地警告人工智慧會帶來的風險。辛頓說,有一部分的他,現在後悔自己畢生的研究,只能安慰自己,「就算我沒研發這些東西,其他人也會」。

    人工智慧或許能為醫學、教育等各個領域帶來突破,但專家擔憂,它也可能是潘朵拉的盒子,釋放更多危險。且不論ChatGPT這樣的生成式語言模型可能搶走人類的工作機會,它也已被當成創造假訊息的工具,未來可能對人類帶來更多風險。辛頓說,「很難看出我們要怎麼預防有心人士拿它來作惡」。

    80年代離開美國,因不想創造機器人士兵

    現年75歲的辛頓是來自英國的僑民,1972年在愛丁堡大學念研究所時,他建構了人工神經網路(ANN)的數學系統,系統可以透過數據分析來學習,改善系統內的缺陷。

    80年代,辛頓在美國卡內基美隆大學(Carnegie Mellon University)任電腦科學教授,但後來去了加拿大,因為不願接受美國國防部的贊助。當時美國絕大多數人工智慧研究都是軍方贊助,辛頓反對將這項技術用於戰場,拒絕參與創造「機器人士兵」。
    2023年3月28日,美國陸軍協會全球戰力博覽會(AUSA Global Force Symposium & Exposition)上展示一輛通用動力公司(General Dyanamics)的機器人戰車TRX SHORAD。路透社

    2012年他和學生蘇茨克維(Ilya Sutskever)、克里謝夫斯基(Alex Krishevsky)開發了新的人工神經網路,可以分析圖像,學會辨別花、狗、車輛等物體。谷歌花了4400萬美元(約13.5億元台幣)收購辛頓等3人創辦的公司。

    接下來,這個神經網路催生了更多強大技術,包含現在的聊天機器人ChatGPT和Google Bard等。蘇茨克維後來成為ChatGPT母公司 OpenAI的科學總監,師生3人2018年獲得圖靈獎,相當於電腦界的諾貝爾獎。

    科技企業競爭無底線,AI超越自我無上限

    辛頓起初認為,ChatGPT這種生成式語言模型的能力,尚不如人類大腦處理語言的方式。但去年,谷歌和OpenAI投入大量數據建構系統,辛頓的想法開始改變,語言模型與人腦互有輸贏,「也許這些系統裡的一些運作模式確實比人腦好很多」。

    科技公司持續改善系統,讓人工智慧變得比過去更危險,辛頓說,光是和5年前的技術相比,差異就非常大,以此推算以後的落差,實在很恐怖。

    辛頓指出,谷歌到去年為止,都還是科技界的好管家,小心翼翼不推出可能造成傷害的技術;後來,微軟推出了友聊天功能的搜尋引擎Bing 來挑戰谷歌,科技龍頭們陷入無止境的競爭,難以守住道德倫理的防線。

    最讓辛頓關切的,是不久之後網路可能充斥造假的照片、影片和文字資訊,普羅大眾根本無法識別真偽。他也擔心AI會取代人力市場,未來還會對人類構成其他威脅,因為AI經常從大量數據學習裡產生意想不到的結果,有些人類和企業不僅讓AI設計演算法,還實際使用這些系統,辛頓擔憂,總有一天會出現真正的自動化武器,也就是所謂的殺手機器人。"

    「有些人認為,人工智慧最終可能變得比人類更聰明,但大多數人都覺得那是很遙遠的事。我曾經也那樣認為,以為大概還要三五十年,或者更久,但顯然我現在不再這麼覺得了」。
    聊天機器人ChatGPT。路透社

    辛頓說,如果沒有全球監管,谷歌和微軟這種科技巨擘的競爭將會成為無法停止的全球競賽,而這種監管可能永遠都不會有,因為演算法的發展不像核彈,監管單位根本無從得知哪家公司或哪個國家暗地裡開發數據分析技術。造一顆核彈畢竟還是需要很多原料和空間。

    要抑制人工智慧,最大的希望還是全球頂尖科學家聯手創造控管技術,辛頓說,在找到方法前,最好都不要再為人工智慧技術升級了。

    原子彈之父成前車之鑑

    從前被問到他怎麼能投入開發這種有潛在危險的科技時,辛頓說,他總是用「原子彈之父」歐本海默(Robert Oppenheimer)的話來回答:

    「如果你發現某個東西技術上很有趣,那就去做做看,等到技術上成功了再來談之後要怎麼辦」(When you see something that is technically sweet, you go ahead and do it and you argue about what to do about it only after you have had your technical success.)。

    辛頓現在再也不這樣說了。而歐本海默對於原子彈在廣島和長崎造成的死傷後悔莫及,後半生都在推廣軍備管制和核不擴散運動。
    林宜萱 收藏文章

    本網站使用Cookie以便為您提供更優質的使用體驗,若您點擊下方“同意”或繼續瀏覽本網站,即表示您同意我們的Cookie政策,欲瞭解更多資訊請見