HY-Motion 1.0 - Tencentがテキストから人体骨格ベースの3Dキャラクターモーションを生成するAIモデルをオープンソースで公開!
テンセントが2025年12月末にテキストから人体骨格ベースの3Dキャラクターモーションを生成するAIモデル「HY-Motion 1.0: Scaling Flow Matching Models for 3D Motion Generation」をオープンソースで公開しておりました!
テンセントが2025年12月末にテキストから人体骨格ベースの3Dキャラクターモーションを生成するAIモデル「HY-Motion 1.0: Scaling Flow Matching Models for 3D Motion Generation」をオープンソースで公開しておりました!
スコットランド グラスゴー大学(University of Glasgow)の 研究チームが発表した「Multi-Person Interaction Generation from Two-Person Motion Priors」。 既存の2人モーション拡散モデルを再利用して、多人数同時のリアルなインタラクション生成を可能にする技術!SIGGRAPH 2025 発表技術論文です。
DFKI、Max Planck、Snap Inc.などの研究チームが手がけた、音楽を入力するだけで、二人ペアでシンクロするインタラクティブなダンスシーンを自動生成するAI技術「DuetGen」が登場。音楽とキャラクター同士のやり取りまで自然に再現します。SIGGRAPH 2025発表技術です。
動画拡散モデルの運動知識と骨格ベースアニメーションの制御性を融合するフレームワーク「AnimaX: Animating the Inanimate in 3D with Joint Video-Pose Diffusion Models」のプロジェクトページが公開されています。
中国の研究者らによる「RemoCap: Disentangled Representation Learning for Motion Capture」技術のご紹介。単一映像から人体の動きをキャプチャーする際に遮蔽物があっても比較的高精度な結果を生み出せる新技術!
カーネギーメロン大学やマックス・プランク知能システム研究所らの研究者による『WHAM:Reconstructing World-grounded Humans with Accurate 3D Motion』という技術に注目が集まっています。動画から人物のモーションを構築する技術です。
何気なく取った動物や人物の映像から脚式ロボット向けに動きを転送する為のフレームワーク『SLoMo: A General System for Legged Robot Motion Imitation from Casual Videos』が公開されています。
スタンフォード大学による、音楽に合わせて人型3Dモデル用のダンスアニメーションを生成可能なAIモデル「Editable Dance GEneration (EDGE)」が発表されています。
テキストから最適な人物の3Dモーションを生成する技術「MotionDiffuse: Text-Driven Human Motion Generation with Diffusion Model」の論文とコードが公開されています。
Georg Sperl氏、Rahul Narain氏、ChrisWojtan氏らによるニットの縫い方応じた変形をアニメーションに適用するアプローチ「Mechanics-Aware Deformation of Yarn Pattern Geometry」のSIGGRAPH 2021向け技術論文と動画が公開されています。
以前紹介した、ディープラーニングを用いてモデルへのスキニングを自動で行ってくれる技術「RigNet: Neural Rigging for Articulated Characters」のソースコードがGithub上で公開されていました。
モーションキャプチャシステム/ソリューションの開発とプロのアニメーションサービスを提供しているるハイエンドのアニメーションスタジオ「Snappers」による皺の調整・制御ツール「Snappers Wrinkles Designer」映像が公開。
1方向スケッチからの3Dモデル生成とアニメーションを実現するカジュアルなCGツールアプローチ!「Monster Mash」が公開されています。SIGGRAPH Asia 2020技術論文
エジンバラ大学とElectronic Artsの共同研究の「Local Motion Phases for Learning Multi-Contact Character Movements(マルチコンタクトキャラクターの動きを学習するためのローカルモーションフェーズ)」SIGGRAPH 2020 向け技術論文
ディープラーニングを用いてモデルへの骨組み込みとスキニングといったリギングのための工程を自動で行ってくれる技術「RigNet: Neural Rigging for Articulated Characters」というのが話題を集めています!SIGGRAPH 2020 技術論文!
Google JapanのソフトウェアエンジニアPramook Khungurn氏による、深層学習を用いて一枚のキャラクター画像から顔アニメーションを制作するシステム 「Talking Head Anime from a Single Image」 が話題を集めております。
ユービーアイソフト モントリオールによる、ゲームでの運用を想定した、深層強化学習とモーションマッチングを用いた物理ベースのアニメーション制御技術「DReCon: Data-Driven Responsive Control of Physics-Based Characters」
スコットランド「エジンバラ大学(The University of Edinburgh)」Sebastian Starke氏、He Zhang氏、幸村 琢氏、Adobe ResearchのJun Saito氏らによる「Neural State Machine for Character-Scene Interactions」!SIGGRAPH 2019 Asia技術論文!
© 2010-2025 3D人-3dnchu-