9 月 1 日消息,騰訊混元宣布將旗下國際翻譯模型開源,供開發(fā)者免費下載部署。據(jù)了解,這一模型命名為 Hunyuan-MT-7B,總參數(shù)量僅 7B,支持 33 個語種、5 種民漢語言 / 方言互譯,是一個能力全面的輕量級翻譯模型。
騰訊混元稱,在 8 月底結束的國際計算語言學協(xié)會(ACL)WMT2025 比賽中,騰訊混元 Hunyuan-MT-7B(參賽名稱:Shy-hunyuan-MT)拿下了全部 31 個語種比賽中的 30 個第 1 名,處于絕對領先地位,這 31 個語種除了中文、英語、日語等常見語種,也包含捷克語、馬拉地語、愛沙尼亞語、冰島語等小語種。WMT25 競賽對參賽模型的參數(shù)規(guī)模有明確限制,要求系統(tǒng)滿足開源要求,并且只能使用公開數(shù)據(jù)進行訓練,在這樣的環(huán)境下,Hunyuan-MT-7B 擊敗了眾多參數(shù)更大的模型。
騰訊混元還稱,在業(yè)界常用的翻譯能力測評數(shù)據(jù)集 Flores200 上,騰訊混元 Hunyuan-MT-7B 模型也有卓越的效果表現(xiàn),明顯領先于同尺寸模型,與超大尺寸模型效果對比也不遜色。針對翻譯場景,騰訊混元提出了一個完整的翻譯模型訓練范式,覆蓋從預訓練、到 CPT 再到監(jiān)督調參、翻譯強化和集成強化全鏈條,使得模型的翻譯效果達到業(yè)界最優(yōu)。
注意到,同時開源的還有一個翻譯集成模型 Hunyuan-MT-Chimera-7B (奇美拉),是業(yè)界首個翻譯集成模型,它能夠根據(jù)原文和多個翻譯模型給出的不同內容,再生成一個更優(yōu)的翻譯結果,不僅原生支持 Hunyuan-MT-7B,也支持接入 deepseek 等模型,對于一些有專業(yè)翻譯需求的用戶和場景,可以提供更加準確的回復。
目前,騰訊混元翻譯模型已經(jīng)接入騰訊多個業(yè)務,包括騰訊會議、企業(yè)微信、QQ 瀏覽器、翻譯君翻譯、騰訊海外客服翻譯等,助力產(chǎn)品體驗提升。
Hunyuan-MT-7B 模型已在騰訊混元官網(wǎng)上線體驗入口,并在 Huggingface 和 Github 等開源社區(qū)提供下載,對應的技術報告和論文也已經(jīng)在開源社區(qū)公開。
體驗地址:https://hunyuan.tencent.com/modelSquare/home/list
本文鏈接:http://www.rrqrq.com/showinfo-45-27251-0.html在國際比賽中拿下 30 個第 1 名,騰訊混元開源輕量級翻譯模型 Hunyuan-MT-7B
聲明:本網(wǎng)頁內容旨在傳播知識,若有侵權等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。郵件:2376512515@qq.com