ページの本文へ

Hitachi

企業情報研究開発

2015年10月22日

発表者からのレポート

2015年9月29日から10月3日まで、福岡国際会議場にて、The 14th IEEE International Symposium on Mixed and Augmented Reality (ISMAR 2015)が開催されました。この学会は、IEEEが主催するMR・AR分野のトップカンファレンスであり、今回の参加者は約380名。日本開催ということもあり、約半数が日本からの参加という状況でした。


図1 本発表の内容
拡大図

会議はS&T (Science & Technology)とMASHD (Media, Arts, Social Sciences, Humanities & Design)の2トラックで、筆者に関連のあるS&Tトラックは、HMD、Depth Camera、Tracking、Applications、Closed-Loop Visual Computing、Medical AR、Perceptionの7セッションから構成され、最新のMR・AR技術に関する活発な議論が行われました。S&Tトラックでは、full paper12件、short paper 10件、ポスター43件、デモ30件の発表があり、採択率はfullおよびshort paperは約20%、ポスターが約50%とのことでした。

筆者は、S&Tのポスターセッションにおいて、「Hands-free AR Work Support System Monitoring Work Progress with Point-cloud Data Processing」と題して、AR技術を用いた作業支援システムに関する発表を行いました(図1)

AR技術は、プラントや生産現場などにおける作業者支援技術としても注目を集めています。AR技術を用いると、実際の作業対象物に対して作業指示を直接的に表示することができるため、作業ミスを削減し、作業効率を向上することができると考えられます。しかし、次の作業指示を提示するためには、作業者が何らかの操作を行う必要があるため、通常の作業を中断することになるという問題がありました。本発表ではこの課題を解決するために、メータやバルブなどの作業対象物の状態をシステムが判定し、状態が適切であれば自動的に次の作業指示を提示する方式を提案しました。

具体的には、作業者が装着するヘルメットに3Dセンサを設置し、3Dセンサから入力されたデータを用いて作業対象物と作業者の手の関係を解析します。さらに、解析の結果を用いて作業者が作業対象物から手を離したタイミングを検出します。そのタイミングで入力データから抽出した作業対象物の3Dデータと、あらかじめ登録してある適切な状態を表す3Dデータとを比較し、作業対象物の状態を判定します。

提案手法により、通常の作業を妨げることなく、作業者は適切なタイミング・内容でARによる作業指示を受けることが可能となります。

(佐川 浩彦    記)

  • ページの先頭へ