Metaは、ダビングファイルを入力することでキャラクターの会話シーンを生成できるAIフレームワークaudio2photoreal を発表しました

WendyCS
AUDIO-2.52%

Bit News Metaは最近、一連のリアルなNPCキャラクターモデルを生成し、既存のボイスオーバーファイルの助けを借りてキャラクターモデルを自動的に「リップシンク」および「ポーズ」させることができるaudio2photorealと呼ばれるAIフレームワークを発表しました。

公式研究報告書は、ダビングファイルを受け取った後、Audio2フォトリアルフレームワークは最初に一連のNPCモデルを生成し、次に量子化技術と拡散アルゴリズムを使用してモデルアクションを生成し、量子化技術がフレームワークのアクションサンプル参照を提供し、拡散アルゴリズムを使用してフレームによって生成されたキャラクターアクションの効果を改善することを指摘しました。

対照実験の評価者の43%が、フレームによって生成されたキャラクターの会話シーンに「強く満足」していたため、研究者は、Audio2フォトリアルフレームワークが業界の競合製品よりも「よりダイナミックで表現力豊かな」動きを生成できると感じました。 研究チームは現在、関連するコードとデータセットをGitHubで公開していると報告されています。

免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は免責事項をご参照ください。
コメント
0/400
コメントなし