freesexvideos性少妇kant,国产美女久久久亚洲综合,久久久精品国产sm调教网站,97色成人综合网站,高清欧美性猛交xxxx黑人猛交

財(cái)新傳媒
  • 發(fā)表評(píng)論
  • 分享到微信朋友圈
  • 新浪轉(zhuǎn)發(fā)

GPT革命|騰訊混元發(fā)布開源文生圖模型 采用Sora相同架構(gòu)

文|財(cái)新 劉沛林
2024年05月14日 21:00
本次推出的文生圖模型是騰訊第一款開源模型
資料圖:騰訊混元大模型logo。圖:視覺中國(guó)

  【財(cái)新網(wǎng)】騰訊大模型團(tuán)隊(duì)發(fā)布首款開源模型。5月14日,騰訊混元大模型宣布推出15億參數(shù)的開源文生圖模型,該模型采用和OpenAI于2月發(fā)布的文生視頻模型Sora相同的DiT架構(gòu)。騰訊稱,采用了該架構(gòu)的文生圖模型較前一代視覺生成在語(yǔ)義理解、畫面質(zhì)感和真實(shí)性等方面較大提升,整體效果提升20%。

  DiT(Diffusion with Transformer)可以簡(jiǎn)單理解為將此前多用于文本的Transformer架構(gòu)和多用于多模態(tài)的Diffusion架構(gòu)相結(jié)合,可以實(shí)現(xiàn)更好的多模態(tài)理解能力,和更豐富的內(nèi)容生成。今年2月OpenAI率先發(fā)布了采用該架構(gòu)的文生視頻模型Sora,可生成長(zhǎng)達(dá)1分鐘的視頻,由于其效果驚艷在業(yè)界引爆了文生視頻熱潮,國(guó)內(nèi)產(chǎn)業(yè)界也加快了將該架構(gòu)用于多模態(tài)模型能力的探索。(詳見《財(cái)新周刊|Sora再進(jìn)階》)

  推薦進(jìn)入財(cái)新數(shù)據(jù)庫(kù),可隨時(shí)查閱公司股價(jià)走勢(shì)、結(jié)構(gòu)人員變化等投資信息。

責(zé)任編輯:屈運(yùn)栩 | 版面編輯:李東昊
推廣

財(cái)新網(wǎng)主編精選版電郵 樣例
財(cái)新網(wǎng)新聞版電郵全新升級(jí)!財(cái)新網(wǎng)主編精心編寫,每個(gè)工作日定時(shí)投遞,篇篇重磅,可信可引。
訂閱