Live2Dによるキャラクター連動の可能性

数年前から株式会社Live2D(旧サイバーノイズ社)により開発が進められてきたLive2D(ライブツーディー)が、「FaceRig」の登場によりぐっと身近になりました。

まずは簡単にデモのようなものを作ってみましたのでこちらをご覧ください。



このように、ウェブカメラで顔認識をして、その表情をリアルタイムに任意のキャラクターと連動させることができます。
使用しているソフトはSteamの「FaceRig」(1,480円)と、「FaceRig Live2D Module」(398円)の2つです。

いろいろと試してみましたが、顔認識の精度は相当高いですね。
眉毛、目、鼻、口、顔の輪郭まで一瞬で認識してそれを反映させています。



コミュニケーションによる情報伝達は、言語的情報と非言語的なものがあります。
非言語コミュニケーションとは言語的情報以外を使うものであり、具体的には表情・視線・姿勢・しぐさなどがあります。

アメリカの心理学者アルバート・メラビアンによる「メラビアンの法則」によると 、コミュニケーション全体を100%とした場合、情報伝達に果たす寄与度
(正確には好意・反感などの態度や感情のコミュニケーションを扱う実験において、感情や態度が矛盾したメッセージが発せられたときの人の受けとめ方について、人の行動が他人にどのように影響を及ぼすか)は

●その意味・内容が占める割合は7%
●音声と音質の占める割合が38%
●表情としぐさの占める割合は55%

とされています。

すなわち、コミュニケーションにおいて、表情としぐさが半数以上の大きな役割を果たしているのです。
私たちが対面対話によって伝え合うものは、その内容よりも非言語コミュニケーションによる方が大きいとさえ言えます。

実感としても、コミュニケーションにおける表情のもつ情報伝達の役割ってかなり大きいことを感じます。

それゆえに、このように表情や仕草を伝達するツールの役割はとても重要なのです。


Live2Dって何?という方に簡単に説明すると、一枚の二次元の絵から、その原画の画風を保ったままキャラクターを自由に動かすことができるソフトです。
これまで、アニメーションなどは、一コマ一コマ動作に変化を与えた絵を描いて用意しなければなりませんでしたが、各パーツごとにコンピューターで物理演算をしてモーフィング(動作のつなぎ)によるシームレスアニメーション(動作がなめらかで自然なアニメーション)を可能にする映像表現が可能になりました。

Live3Dというものも有るのですが、モデルが自然に見えるようにすることが難しい、扱いがまだ複雑で簡単ではないということで、現状では動作が軽く、簡単に扱え、自然に見える Live2D が先行してブームになりつつあります。


「FaceRig」の発売により Live2D  は、ぐっと身近な存在になりました。
おそらく、これからもっともっと進化していくでしょうし、街の中で気づかないうちに普通に触れているようになる日も近いでしょう。

 


相対的にこのような分野は「VR」(バーチャル・リアリティー)に属します。
ここでいうバーチャルとは、「仮想」ではなく、「実質的な」と訳したほうが正しいでしょう。

今後の動向に注目したいところです。

 

お寺と「VR」って、まったく関係ないジャン、とお思いの方、それは大きな間違いです。

「VR」という概念は、実は宗教とは切っても切り離せない関係性があります。
「須弥山」「富士塚」「お遍路」「曼荼羅」「仏像」「仏壇」など、「VR」の装置としての宗教施設は例を挙げればいくらでも出てきます。




■関連ブログ記事
ネット参拝は是か非か
今日からお盆の入りです
宗教サイトの類型

投稿者: kameno 日時: January 6, 2016 10:28 AM

コメントを投稿