9 月 28 日消息,“中國電信人工智能研究院”官方公眾號今天宣布,中國電信人工智能研究院(IT之家注:下文稱 TeleAI)成功完成國內(nèi)首個基于全國產(chǎn)化萬卡集群訓練的萬億參數(shù)大模型,并正式對外開源首個基于全國產(chǎn)化萬卡集群和國產(chǎn)深度學習框架訓練的千億參數(shù)大模型 —— 星辰語義大模型 TeleChat2-115B。
官方表示,這項科研成果標志著國產(chǎn)大模型訓練真正實現(xiàn)全國產(chǎn)化替代,正式進入全國產(chǎn)自主創(chuàng)新、安全可控的新階段。
TeleChat2-115B 基于中國電信自研的天翼云“息壤一體化智算服務平臺”和人工智能公司“星海 AI 平臺”訓練完成。據(jù)介紹,其在保證訓練精度的前提下利用多種優(yōu)化手段提升模型訓練效率和穩(wěn)定性,實現(xiàn)了 GPU 同等算力計算效率超 93% ,模型有效訓練時長占比超 98% 。
針對超大參數(shù)模型訓練,TeleAI 采用了大量小模型進行 Scaling,進而驗證不同模型結(jié)構(gòu)的有效性。同時,在數(shù)據(jù)配比方面,基于小模型實驗結(jié)果反饋,采用回歸預測模型,得到較優(yōu)數(shù)據(jù)配比。
在 Post-Training(后訓練)方面,TeleAI 首先針對數(shù)學、代碼和邏輯推理等內(nèi)容合成了大量問答數(shù)據(jù),用于 SFT(監(jiān)督式微調(diào))第一階段模型訓練。
其次,其采用迭代式更新策略,使用模型對提示詞數(shù)據(jù)進行指令復雜性提升與多樣性擴充,通過模型合成和人工標注提升答案質(zhì)量,并利用拒絕采樣獲取優(yōu)質(zhì) SFT 數(shù)據(jù)及 RM(獎勵模型)代表性數(shù)據(jù),用于 SFT 訓練和 DPO(偏好對齊)訓練,以及模型效果迭代。