鳳凰網(wǎng)科技訊 9月1日,騰訊混元團(tuán)隊(duì)今日正式對(duì)外發(fā)布并開(kāi)源了其最新的輕量級(jí)翻譯模型Hunyuan-MT-7B。該模型以僅7B(70億)的參數(shù)規(guī)模,在剛剛結(jié)束的國(guó)際權(quán)威機(jī)器翻譯競(jìng)賽WMT2025中,于31個(gè)語(yǔ)種的競(jìng)賽項(xiàng)目中取得了30個(gè)第一名的壓倒性成績(jī),展現(xiàn)了其在小語(yǔ)種和常見(jiàn)語(yǔ)種翻譯領(lǐng)域的領(lǐng)先能力。
據(jù)了解,Hunyuan-MT-7B不僅支持包括中文、英語(yǔ)、日語(yǔ)在內(nèi)的33個(gè)語(yǔ)種,還特別針對(duì)國(guó)內(nèi)用戶需求,實(shí)現(xiàn)了5種民漢語(yǔ)言及方言的互譯。與傳統(tǒng)機(jī)器翻譯相比,該模型依托大模型技術(shù),能夠更好地理解對(duì)話背景與上下文,在處理俚語(yǔ)、古詩(shī)詞及網(wǎng)絡(luò)縮寫(xiě)等復(fù)雜翻譯場(chǎng)景時(shí),表現(xiàn)出高度的準(zhǔn)確性和流暢性,實(shí)現(xiàn)了翻譯領(lǐng)域追求的“信達(dá)雅”標(biāo)準(zhǔn)。
此次WMT2025競(jìng)賽的一大特點(diǎn)是要求參賽模型必須開(kāi)源,且只能使用公開(kāi)數(shù)據(jù)訓(xùn)練,這為評(píng)估模型真實(shí)能力提供了公平的環(huán)境。在這樣的限制下,Hunyuan-MT-7B依然擊敗了眾多參數(shù)規(guī)模遠(yuǎn)超于它的對(duì)手。同時(shí),在行業(yè)公認(rèn)的翻譯能力評(píng)測(cè)基準(zhǔn)Flores200上,該模型的表現(xiàn)也顯著優(yōu)于同尺寸模型,效果堪比許多超大規(guī)模模型。這一系列成果得益于騰訊混元提出的覆蓋預(yù)訓(xùn)練到強(qiáng)化學(xué)習(xí)的全鏈條訓(xùn)練范式。
與模型一同開(kāi)源的,還有業(yè)界首個(gè)翻譯集成模型Hunyuan-MT-Chimera-7B(奇美拉)。該模型的獨(dú)特之處在于,它能夠整合并評(píng)估來(lái)自不同翻譯模型(包括Hunyuan-MT-7B及DeepSeek等第三方模型)的譯文,并在此基礎(chǔ)上生成一個(gè)質(zhì)量更高的最終版本,為專業(yè)翻譯場(chǎng)景提供了新的優(yōu)化路徑。
對(duì)于開(kāi)發(fā)者和企業(yè)而言,Hunyuan-MT-7B的輕量化特性帶來(lái)了顯著的實(shí)際應(yīng)用優(yōu)勢(shì)。其7B的參數(shù)規(guī)模確保了更快的推理速度和更低的部署成本,能夠靈活部署于從云端服務(wù)器到邊緣設(shè)備的各類硬件環(huán)境中。官方透露,通過(guò)騰訊自研的AngelSlim壓縮工具進(jìn)行FP8量化后,其推理性能可再提升30%。目前,該模型技術(shù)已應(yīng)用于騰訊會(huì)議、企業(yè)微信、QQ瀏覽器等多個(gè)內(nèi)部業(yè)務(wù)。
目前,Hunyuan-MT-7B模型已在騰訊混元官網(wǎng)開(kāi)放體驗(yàn),并已在Huggingface和Github等社區(qū)提供模型下載和技術(shù)報(bào)告,持續(xù)其在AI領(lǐng)域的開(kāi)源生態(tài)貢獻(xiàn)。