2020年9月4日金曜日

ニューノーマルに必須の非接触インターフェイスのあれこれ

 


(写真:Zyabich/Shutterstock.com


人間と機械をつなぐインターフェイスはこれまで、触ることで感知する接触インターフェイスが常識でした。電気を使っていない時代でも、採掘、精錬、鋳造、製粉、研磨などの作業には、レバー、ケーブル、棒、そして手や腕の力が必要でした。電力が誕生してからは、スイッチやボタンなどのシンプルな操作に変わりました。

現代のユーザーインターフェイスは、ボタン、スイッチ、タッチパネル、さらには音声でデバイスへのアクセスや制御をします。特に音声認識は、さまざまな非接触アプリケーションに使われています。しかしウィルスに対し神経質になっている現在、機械メーカーは、特に公共の場における人間と機械間のやり取りの方法について見直し始めています。

 

公共の場におけるマシンインターフェイスには、常に独特の課題があります。例えば地下鉄によくある回転バーの付いた改札口や手すりなどは何らかに接触を伴います。これについては自動ドアを設置することで解決した場所もありますが、精密なユーザーインターフェイスを使用する複雑な機械の場合は簡単ではありません。またATMのインターフェイスの場合、キーパッドやタッチスクリーンを使って暗証番号を入力します。キーパッドもタッチスクリーンも画面であって、自動消毒などはしてくれません。もちろん布巾とアルコールで画面を拭きに来てくれる人もいません。

非接触技術は、ウィルスの拡大を防いで人間と機械がやり取りできる新しく安全な方法です。では設計者はマシンインターフェイスに非接触技術をどのように統合したらよいのか、考えていきましょう。

 

写真1枚がプログラム1,000行分に

今や動画は、個人間やネットワークで繋がったシステムにとって安全な交流手段の一つとして欠かせない存在です。顔認証ができるスマートフォンは、これによって携帯端末をロックしたり、ロックを解除したりできます(写真1)。顔認証ソフトは、世界中でアクセス可能なビデオ画像の大規模ネットワークを通じて、リアルタイムに動作します。これは、法執行機関や国際安全保障団体が利用できる個人を対象とした遠隔トラッキング技術の1つです。

 


写真1:顔認証は、スマートフォンのロック機能に使用されている(写真:HQuality/Shutterstock.com

 

その他の方法として、3Dカメラの採用で非接触技術をユーザーインターフェイスに取り込むことができます。3Dカメラの性能は、ここ数年間で大幅に向上しています。例えば魚眼レンズ付きのSamsung Gear 360や、奥行きのある画像を撮影できる3DセンサのMicrosoft Kinectは、優れた機能を持っています。ゲーマーやプログラマーは、Xbox 12001年前後に発売)などを含む旧型の平面技術を使用して、人体の動作において高度なトラッキングと測定を行ってきました。

この技術は、コントラストで判断する境界線を認識し、複数の質量中心点から骨格のワイヤフレームを作成、さらに一度に複数の人間をトラッキングすることができました。非常に優れた技術でしたが当時はあまり活用されませんでした。しかし処理能力やグラフィックの速度と解像度の限界を押し広げるゲームの世界では頻繁に使われていたのです。

現在のKinect 2センサの技術は、ToF(飛行時間)方式の測定技術を使用しており、LEDまたはレーザーの反射時間を観察することで、動画の各ポイントに対する3D深度を測定します。近年では高解像度・高鮮明度化が進んだため、さらに高度な測定が可能となりました。顔、首、または額から血管の拡大・収縮を観察し、心拍数を測定することも動画からできるようになりました。

この技術の核は、ジェスチャーや動作を認識できる能力です。ほとんどの部位に対し、非接触で認識することができます。携帯端末を操作するだけで、機械の心臓部をタッチする必要はありません。

 

ハプティクス(触覚技術)の実用化

非接触インターフェイスは、実用的な範囲に留まる必要があります。例えば、出入口から入ろうとする人に踊ってもらおうと考えてはいけません。そのため携帯用または設置されている装置と安全にやり取りする場合、体全体のジェスチャーを想定するのは適当とはいえません。ただし近距離でディスプレイ技術と触覚フィードバックを組み合わせれば、手のジェスチャーで非接触かつ安全にデータを入力したり、またはバーチャルの悪者を撃ったりすることができます(写真2)。これを実用化するには3つの技術の統合が必要です。

 

  • 1つ目は、近距離で機能する精密な3Dハンドジェスチャー技術
  • 2つ目は、ユーザーが高いレベルの機能を選択し、操作できるようにするシングルユーザーモードの表示画面
  • 3つ目は、オペレーターの検証ができる触覚フィードバックシステム


写真2:精密なハンドトラッキングモジュールにより、骨や関節を含む手の位置と動きの詳細なマッピングが可能(写真:Ultraleap提供)

最近ではこれらの技術が統合され利用できるようになりました。ウィルスに敏感になった新しい世の中で、公共の機械に対する次世代ユーザーインターフェイスの設計に悩んでいる方は、ハイテク企業のUltraleapを検討してみるのも良いと思います。

Ultraleapは、2つの企業と技術を融合した合併企業です。2019年にLeap MotionUltrahapticsが合併し、触覚フィードバックと精密なトラッキング機能を合体させました。ハンドトラッキング用のMultiple Function Sensor Motion Controller(多機能センサモーションコントローラ)は、小型(13mm x 80mm x 30mm)の専用カメラをベースにしたマウント可能なハンドトラッキングのモジュールです。120 x 150度の角度で24インチの距離までのトラッキングが可能です。このソフトはすでに27の異なる手の位置、動き、要素(骨や関節を含む)を検出することができます。

これを超音波によるStratos Inspire触覚フィードバックシステムと連動させれば、文字通り自分の動作の触覚が生み出されます。いろいろなタイミングでトランスミッタが超音波の配列を発生させ、特別な波形を感じることができる超音波波面を作ります(写真3・←動画も見れます)。

開発を始めたい方は、Stratos InspireStratos Exploreの開発キットが入手可能です。ハンドトラッキング用開発キットは、Ultraleapからも入手できます。

 


 写真3:特定の時間に発生させる超音波を重ね、タッチした感覚、または物理的なフィードバックの力覚を作る。小規模な音響浮揚(写真:Ultraleap提供)

これらの技術を組み合わせれば、ウィルスの拡大を防ぎ、人間と機械が安全にやり取りできる新しい方法となり、また、ローカル及びリモートの機械制御やゲーム用にバーチャルリアリティーと拡張現実を統合するための主な技術でもあります。Ultraleapは、VR Developer Mount(開発者マウント)も提供しており、ゲームや他の興味深いアプリケーションに使用する方法を素敵な動画で紹介しています。


まとめ

ウィルスの拡大に怯える世の中になり、機械メーカーは人間と機械の効果的なやり取りの方法について見直さなければならなくなりました。顔やジェスチャーの認証、動作の検出やトラッキング、触覚フィードバックなどの非接触技術をマシンインターフェイスに組み入れることで、人間と機械の新しく効果的なコミュニケーションを生み出すことができます。

 


★★★★★★★★★★★★★★★★★★★★
★★★★★★★★★★★★★★★★★★★★


著者

 Jon Gabay

電気工学を専攻した後、軍需、商事、工業、消費者、エネルギー、医療などの会社において設計エンジニア、ファームウェアプログラマー、システムデザイナー、研究科学者、製品開発者として勤務。またDedicated Devices Corp.を設立・運営し、代替エネルギーの研究者及び発明者として、2004年までオートメーション技術に携わる。その後は次世代のエンジニアや学生のために、研究開発、記事の執筆、技術開発などに従事している。

0 件のコメント:

コメントを投稿

デジタル治療でヘルスケアの未来が変わる

  医療ヘルスケアの未来   「あのう、先生、こうすると痛むんですが」。「その症状に関するアプリは、もうダウンロードしてみましたか」。医師と患者との間で こ んな会話が、不整脈、うつ病、パーキンソン病など、多くの病気について交わされるようになるのは、もうそんなに遠い先...