自分が笑うと画面上のアニメキャラも同じように笑う、未来のチャットシステムはすでに実在した

| コメント(0)


先日から海外系のツイッタータイムラインで話題に登っている「The future is here」なる画像。見た限りではウェブ用のカメラで表情をポイントベースで取り込み、それを元にどのような表情をしているのかを即時に計算した上で、Live2D関連のデータで再現している感じ。滑らかさを持つキャラの動きをさせる試みそのものはLive2Dをはじめ多様なシステムですでにかなり良い部分まで進化しているので、あとはいかに人らしい挙動を見せるかにかかっているわけで。その点では、本物の人間の動きをトレースさせるってのは、(しっかりとトレースできれば)リアルなものに違いなく。マニピュレーター的なもの。

今件はLive 2Dと取り込みデータをリアルタイム連動させて、自分の表情をキャラにトレースしてもらう。未来のバーチャルチャットであなたもアニメキャラと会話ができるよ、的なふれこみで話題に登っていた......のだけど、肝心の一次ソースが添付されておらず、単に「未来が来た」だけ。それじゃどんな未来なのか、具体的なものがわからんやん。


ということでざくざく掘っていき、逐次明らかにしようかなということでアップしている過程で回答が先行して指摘されてしまったので、それも合わせ。Steamで提供されている、ライブチャット的に連動可能なシステム「FaceRig Live2D module」のデモ画面でしたとさ。詳細はまた後でじっくり眺めるとして、ホント、未来が目の前に来た、という話ではなく、もう手でつかみ取れるじゃん、的な。


すでに使っている人もいるようで、ゲームの実況を別キャラに語らせる際に用いているようだ。ああ、これは面白い。この発想は無かったわ。一昔前なら、同じことをさせるのには数百、数千万円の専用システムが必要で、専門的な技術を持つ会社にお願いしないといけなかったのに、今ならちょっと無理をすれば個人でも可能となった。いやぁ、マジでミライ。

これ、具体例としてゲーム実況を挙げたけど、ビジネスやエンタメなど、幅広い面での利用が可能だよね。さらに実際の人間の動きをサンプリング・保存する機能を追加させてデータベース化すれば、より一層の幅広い可能性が見えてくる気がするんだ。そして音声合成機能もリンクさせれば......まぁ、概して既存の技術の組合せで、新たな可能性が見いだせるという次第で。

......これ「稼働途中で鼻をほじったらダメだよね」と言ったんだけど、よく考えてみれば指の部分までは対応していないから、鼻をほじってもキャラには反映されないだろうな(だからなんだと言われてもそれまでだけど(^^;;)。

関連記事             

コメントする

            
Powered by Movable Type 4.27-ja
Garbagenews.com

この記事について

このページは、不破雷蔵が2015年12月16日 07:58に書いた記事です。

ひとつ前の記事は「新聞って本当に「低所得者の生活必需品」で「多くの人が、日々の生活の中で必要な情報を得るために、毎日読むもの」なのだろうか」です。

次の記事は「食材の価格変動と消費税率と消費行動との関係の話」です。

最近のコンテンツはインデックスページで見られます。過去に書かれたものはアーカイブのページで見られます。

* * * * * * * * * * * * * *


2021年6月

    1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30