中研院正式開源釋出繁中優化的Llama 2大型語言模型,正式採用Apache2.0釋出

文/余至浩 | 2023-10-06

臺灣商用開源的繁中LLM模型現在有了新選擇!從事中文自然語言處理(NLP)研究的中研院CKIP Lab中文詞知識庫小組,最新開源釋出了以Llama 2開發的繁中優化的大型語言模型CKIP-Llama-2-7b,提供給臺灣學術圈或AI開發者來使用,可運用在文案生成、文學創作、問答系統、客服系統、語言翻譯、文字編修、華語教學。該模型已放上Github 和Huggingface開放給公眾使用,並採用Apache2.0授權釋出。中研院搶先開放測試網頁,開放所有人測試。

Llama 2是由Meta在7月釋出的開源可免費商用大型語言模型,不到幾個月,Llama 2在開源LLM模型競賽中快速竄起,在Huggingface公布許多模型幾乎都是基於Llama 2衍生的模型,近幾個月在臺灣開始有企業以此推出商用模型服務,如台智雲開發了繁體中文版本的優化Llama 2模型,提供了70億、130億和700億參數的三種商用版本,以滿足企業客戶的需求。

幾個月前,來自中研院的CKIP Lab中文詞知識庫小組開始著手投入繁中優化的Llama 2模型的開發,他們以商用開源模型Llama-2-7b和 Atom-7b為基礎,專注增強繁體中文的處理能力,通過對405個可商用的任務檔案進行訓練和優化,最終訓練出中研院的繁中優化的CKIP-Llama-2-7b模型。該模型擁有70億個參數。

相較於原本的Llama 2模型,CKIP Lab強調,該模型有4大特色,首先在多項繁中任務的處理比原來模型表現更好,其次,它可以很容易部署在本地裝置或設備上,例如僅需一張具有12GB記憶體容量的GPU,即可在離線的環境中執行,不需要依賴雲端等外部資源。此外,還開放使用者可以根據自身需求使用自己的訓練資料集,快速打造出適合自身任務需求的模型,更重要的是,採用對商用相當友善的Apache-2.0授權許可釋出。

CKIP Lab小組一共開發出兩個模型,一個是繁體中文預訓練後的CKIP-Llama-2-7b模型,一個是以前者為基礎,進行多任務微調訓練後的 CKIP-Llama-2-7b-chat模型。

CKIP Lab小組表示,這個模型可應用於各種領域,包括文案生成、文學創作、問答系統、客服系統、語言翻譯、文字編修、華語教學等等。中研院搶先開放測試網頁,開放所有人測試。

除了釋出繁中優化的Llama 2模型,CKIP Lab小組在這之前還有釋出了繁體中文的transformers預訓練模型,包含ALBERT、BERT、GPT2,提供使用者試用,並以GPL-3.0授權釋出。隨著中研院繁中優化的Llama 2模型推出,將有助於加速臺灣繁中大型語言模型研究和商用的發展。

資料來源:https://www.ithome.com.tw/news/159166

Related posts