開発

GitHubLink

Seat Scape VR

座席選択法によるパーソナルスペース実験観察をVR空間で行うためのアプリケーションです。部屋の広さや座席のレイアウトを自由に変更し、参加者の行動を記録することができます。Blenderで作成した3Dモデルを読み込んで座席や家具として配置することもできます。

GitHubLink

Behavior Senpai

Behavior Senpaiのキャプチャ画面1 Behavior Senpaiの説明図 Behavior Senpaiのキャプチャ画面2 Behavior Senpaiのロゴ

マーカレスモーションキャプチャを用いた行動観察支援アプリケーションです。動画中の人物の姿勢データから左右の手の距離や肘の角度などを計算して特徴量化し、探索的に時系列データに変換することができます。

関連論文はこちら

GitHubLink

Timeline-kun

Timeline-kunのキャプチャ画面1 Timeline-kunの説明図 Timeline-kunのキャプチャ画面2 Timeline-kunのロゴ

複雑/長時間にわたる実験のタイムライン計画と実行を支援するタイマーアプリケーションです。Excelで作成したCSV形式のスケジュールをタイムラインとして可視化し、さらにそのままタイマーとして実行できます。

関連論文(プレプリント)はこちら

研究

パーソナルスペース研究

表情と行動の観察

Muscles of Facial Expression. Many of the muscles of facial expression insert into the skin surrounding the eyelids, nose and mouth, producing facial expressions by moving the skin rather than bones. License: CC BY: Attribution. License Terms: Download for free at http://cnx.org/content/col11496/latest/.

FACS(Facial Action Coding System)とは、46種類の眼や口の動き(Action Unit)によってその人の表情を記述する方法論です。EkmanはAUの組み合わせから人の感情の推定を試みましたが、表情と感情の関係はコンテキストや文化圏、顔の筋肉の個人差の影響を受けるため、普遍性や再現性には限界があることが分かっています。また、仮に人の感情の推定が可能になったとしても、記述や表現の方法が適切でなければあらぬ憶測や誤解、偏見を助長する恐れがあります。

MediaPipeによるAU推定

では個々人に注目して、継続的に、注意深く観察と分析を行えばその人の顔から内的状態や主観的な状況をより的確に推定できるようになるのでしょうか。また、推定結果が及ぼす社会的弊害を最小限に留めつつ、より豊かな生活に役立てるような記述・表現の方法はないでしょうか。西村英伍研究室では、人の表情から何を推測し、それを誰にどう記述・表現するべきなのかを研究しています。

プロフィール

西村英伍

九州大学 芸術工学研究院 助教

researchmap

九州大学研究者情報

同じ部門に西村貴孝(たかゆき)先生がおられますのでお問い合わせの際はご注意ください。また、しばしば西村"英吾"と書かれることがありますので、西村英吾で検索してもひっかかるように書き込んでおります。