【財新網】
零一萬物回應“抄襲” 發(fā)布Yi-34B訓練過程說明
11月15日,零一萬物對其大模型Yi-34B訓練過程進行說明,稱訓練模型過程中沿用了GPT/LLaMA的基本架構,且基本上國際主流大模型都是基于Transformer的架構,大模型持續(xù)發(fā)展與尋求突破口的核心點不僅在于架構,而是在于訓練得到的參數(shù)。近日,Hugging Face開發(fā)者質疑李開復旗下 AI企業(yè)零一萬物開源大模型抄襲了Meta的LLaMA架構,只對兩個張量名稱進行修改。零一萬物開源團隊總監(jiān)Richard Lin稱,在大量訓練實驗過程中,由于實驗執(zhí)行需求對代碼做了更名,將尊重開源社區(qū)的反饋,將代碼進行更新,也更好的融入Transformer生態(tài)。