💥 Gate 廣場活動:#发帖赢代币CGN 💥
在 Gate 廣場發布與 CGN、Launchpool 或 CandyDrop 相關的原創內容,即有機會瓜分 1,333 枚 CGN 獎勵!
📅 活動時間:2025年10月24日 18:00 – 11月4日 24:00(UTC+8)
📌 相關詳情:
Launchpool 👉 https://www.gate.com/zh/announcements/article/47771
CandyDrop 👉 https://www.gate.com/zh/announcements/article/47763
📌 參與方式:
1️⃣ 在 Gate 廣場發布原創內容,主題需與 CGN 或相關活動(Launchpool / CandyDrop)相關;
2️⃣ 內容不少於 80 字;
3️⃣ 帖子添加話題:#發帖贏代幣CGN
4️⃣ 附上任意活動參與截圖
🏆 獎勵設置(總獎池:1,333 CGN)
🥇 一等獎(1名):333 CGN
🥈 二等獎(2名):200 CGN / 人
🥉 三等獎(6名):100 CGN / 人
📄 注意事項:
內容必須原創,禁止抄襲;
獲獎者需完成 Gate 廣場身分認證;
活動最終解釋權歸 Gate 所有。
Meta 發佈了 audio2photoreal AI 框架,可以通過輸入配音檔生成角色對話場景
Bit News Meta 最近宣佈了一個名為 audio2photoreal 的 AI 框架,它能夠生成一系列逼真的 NPC 角色模型,並藉助現有的畫外音檔自動“對口型同步”和“擺姿勢”角色模型。
官方研報指出,Audio2寫實框架收到配音檔后,會先生成一系列NPC模型,然後利用量化技術和擴散演演演算法生成模型動作,其中量化技術為框架提供動作樣本參考,擴散演演演算法用於提升幀生成的人物動作效果。
對照實驗中有43%的評估者對幀生成的人物對話場景“非常滿意”,因此研究人員認為Audio2逼真框架能夠產生比業內競爭產品“更具活力和表現力”的動作。 據悉,研究團隊現已在 GitHub 上公開了相關代碼和數據集。