嗶哩嗶哩(B站)近日在動畫視頻生成技術(shù)領(lǐng)域邁出了重要一步,宣布其最新的Index-AniSora模型正式開源。這一舉動標(biāo)志著二次元風(fēng)格視頻制作迎來了前所未有的革新,為內(nèi)容創(chuàng)作者提供了強大的技術(shù)支持。
Index-AniSora模型是B站研發(fā)的AniSora模型的升級版,并在國際知名的人工智能會議IJCAI2025上獲得了認(rèn)可。該模型的最大亮點在于,它能夠一鍵生成多種二次元風(fēng)格的視頻鏡頭,包括熱門的番劇、國創(chuàng)動畫、漫改作品、虛擬主播(VTuber)內(nèi)容、動畫PV以及鬼畜動畫等。這一技術(shù)的出現(xiàn),不僅大幅提升了動畫視頻的生產(chǎn)效率,更在質(zhì)量上實現(xiàn)了顯著提升。
為了實現(xiàn)這一目標(biāo),B站的研究團隊投入了大量精力,構(gòu)建了一個面向動漫領(lǐng)域的高質(zhì)量獎勵數(shù)據(jù)集。該數(shù)據(jù)集包含了30,000條經(jīng)過人工精心標(biāo)注的動漫視頻樣本,從視覺外觀和視覺一致性兩大方面對視頻質(zhì)量進行全面評估。評估維度涵蓋了視覺平滑度、視覺運動、視覺吸引力,以及文本與視頻、圖像與視頻、角色之間的一致性等多個方面。基于這一數(shù)據(jù)集,團隊開發(fā)出了AnimeReward系統(tǒng),一個專為動漫視頻生成設(shè)計的多維度高可信獎勵機制。
為了進一步優(yōu)化模型的對齊性能,B站的研究團隊還提出了差距感知偏好優(yōu)化(GAPO)技術(shù)。這一技術(shù)將正負(fù)樣本對之間的偏好差距融入損失函數(shù),從而提高了對齊訓(xùn)練的效率和最終性能。實驗結(jié)果顯示,經(jīng)過AnimeReward和GAPO優(yōu)化的模型,在多個評價維度上都顯著優(yōu)于基線模型和監(jiān)督微調(diào)(SFT)模型,生成的動畫視頻更加貼近人類的審美偏好。
Index-AniSora的開源,對于廣大開發(fā)者和二次元內(nèi)容創(chuàng)作者來說,無疑是一個巨大的福音。通過這一模型,用戶可以輕松地將自己喜愛的漫畫轉(zhuǎn)化為生動的動畫效果,支持多種小眾畫風(fēng),讓創(chuàng)作變得更加豐富多彩。這一技術(shù)的推出,不僅將推動二次元內(nèi)容創(chuàng)作的進一步發(fā)展,也為動漫愛好者和創(chuàng)作者提供了更多的可能性。
目前,Index-AniSora模型已經(jīng)在B站的GitHub頁面上線,用戶可以訪問以下鏈接獲取更多信息和資源:
模型倉庫地址:https://github.com/bilibili/Index-anisora/tree/main
模型鏈接:https://modelscope.cn/models/bilibili-index/Index-anisora
體驗鏈接:https://modelscope.cn/studios/bilibili-index/Anisora





















本文鏈接:http://www.rrqrq.com/showinfo-45-13033-0.htmlB站開源新突破:二次元動畫視頻生成模型Index-AniSora來了!
聲明:本網(wǎng)頁內(nèi)容旨在傳播知識,若有侵權(quán)等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。郵件:[email protected]