快訊

    擴增20倍! 聯發科創新基地開源釋出 中英語Breeze-7B大型語言模型

    2024-03-07 15:05 / 作者 陳俐妏
    聯發科創新基地開源釋出 中英語Breeze-7B大型語言模型。資料照,AI示意圖
    聯發科集團轄下的前瞻技術研究單位聯發創新基地,繼2023年初釋出全球第一款繁體中文大型語言模型後,今天再度開源釋出能夠精準理解和生成中英兩種語言的MediaTek Research Breeze-7B 70億參數系列大型語言模型。Breeze-7B基於開源界最熱門的Mistral模型,較上一代增加20倍以上的知識量,Breeze-7B繁體中文的推理處理速度只需要市面上其他70億參數級別的Meta或Mistral模型一半的時間,提供更順暢的使用體驗。

    聯發創新基地負責人許大山博士表示,近期全球AI領域研究蓬勃發展,但多數研究與開發項目都以英文的大型語言模型進行。相信這次聯發創新基地Breeze-7B 繁體中文大型語言模型開源將有益於學術界與業界在AI的發展,未來聯發創新基地也將規劃開源多模態模型,期待持續與學術界及業界共同開創AI領域的更多可能性。

    在市面上眾多 70億參數級別的中英雙語模型中,Breeze-7B 模型在對話與表格處理能力上都是領先者。Breeze-7B能在更短的時間內理解並生成更流暢、精準的中英文回應,還能精準捕捉語境,提供高度相關且連貫的回答,為即時翻譯、商業溝通、智能客服對話等需要快速反應的即時中英雙語的場景提供顯著的效能提升。

    此外,Breeze-7B也能精確地解讀和生成表格內容,無論是數據分析、財務報表還是複雜的排程任務,都能夠提供高效且可靠的支援,對於需要處理大量結構化數據的企業來說尤其重要。

    聯發科創新基地Breeze-7B的模型開源有助學術研究人員深入理解大型語言模型的運作機制,持續改進大型語言模型的幻覺問題 (hallucination) 與問答校準 (alignment) 等,以優化未來語言模型的生成結果。聯發創基地也將不斷地投入大型語言模型的開發,預計下一代以開源模型Mixtral為基礎所訓練的470億參數大模型,將在近期開放給大眾測試。
    陳俐妏 收藏文章

    本網站使用Cookie以便為您提供更優質的使用體驗,若您點擊下方“同意”或繼續瀏覽本網站,即表示您同意我們的Cookie政策,欲瞭解更多資訊請見