效果可達OpenAI同等模型96%,國產(chǎn)開源AI語言模型TigerBot
,國產(chǎn)多模態(tài)大語言模型 TigerBot 近日正式發(fā)布,包含 70 億參數(shù)和 1800 億參數(shù)兩個版本,目前已經(jīng)在 GitHub 開源。
據(jù)悉,TigerBot 帶來的創(chuàng)新主要在于:
-
提出指令完成監(jiān)督微調(diào)的創(chuàng)新算法提升模型可學(xué)習(xí)性
-
運用 ensemble 和 probabilistic modeling 的方法實現(xiàn)可控事實性和創(chuàng)造性
-
在并行訓(xùn)練上突破 deep-speed 等主流框架中的內(nèi)存和通信問題
此外,該模型還針對中文語言更不規(guī)則的分布,從 tokenizer 到訓(xùn)練算法上做了更適合的優(yōu)化。
據(jù)稱,其中 TigerBot-7B-base 的表現(xiàn)“優(yōu)于 OpenAI 同等可比模型” ,開源代碼包括基本訓(xùn)練和推理代碼,雙卡推理 180B 模型的量化和推理代碼。數(shù)據(jù)包括 100G 預(yù)訓(xùn)練數(shù)據(jù),監(jiān)督微調(diào) 1G 或 100 萬條數(shù)據(jù)。
IT之家小伙伴們可以在這里找到 GitHub 的開源項目。
聲明:本網(wǎng)轉(zhuǎn)發(fā)此文章,旨在為讀者提供更多信息資訊,所涉內(nèi)容不構(gòu)成投資、消費建議。文章事實如有疑問,請與有關(guān)方核實,文章觀點非本網(wǎng)觀點,僅供讀者參考。