要約(長編):機械学習やプロセッサ技術の進歩により、AIは大規模なデータセンターを飛び出し、使用現場に近づきつつあります。これぞネットワークエッジです。今回はこのアプローチによるAIの新しい活用例を探っていきましょう。
AIをエッジに移行させた場合の効果
前回のブログでは、AIをネットワークエッジに移行させることに関する白熱した議論をご紹介しました。今回は、このアプローチにとって本当に有益なAIアプリケーションはどれかという観点から議論したいと思います。まずは、AIをネットワークエッジに実装する理由を再確認して解決への手がかりにしましょう。以下のうちあなたのプロジェクトに該当する項目にチェックを入れてください。
- 高速かつ安定したネットワーク接続がない
- 制限された環境で製品が動作している
- リアルタイムで動作するAIが求められるプロジェクトである
- 予算が決まっている
こうした要素がある場合、MLモデルをエッジで動作させることで具体的にはどのようなAIプロジェクトに効果があるでしょうか?
仮想アシスタント
2010年のSiriの立ち上げと共に、Apple社がまた一つのトレンドを作りました。ここから多くの仮想アシスタントが生まれ、特にAmazonのアレクサとGoogleアシスタントは一躍有名になりました。仮想アシスタントはSFチックな音声制御を現実にして、以下のように動作します。
- ウェイクワードを言うか、またはアシスタントを起動させることでスタートさせます。Amazon Echoのように自立したデバイスの場合は、シンプルな音声パターンマッチングを使用してそのウェイクワードを常に聞き取り、その場で処理します。そのためアレクサだけはいくつかのウェイクワードを認識します(アレクサ、Amazon、Echo、コンピューター)。
- 次にデバイスはクラウドベースのサーバーに接続し、聴こえた内容の記録を送信します。
- クラウドサーバーは音声をテキストに変換するMLモデルを使って記録された音声を自然言語テキストのブロックに変換します。
- テキストは自然言語処理によって解析され、意味を抽出します。
- サーバーは、何を質問されたかについて解明し、適切なコメントまたはコンテンツをデバイスに返します。
MLモデルをエッジに実装することで、上記のフローがどのように効率化されるかは簡単に分かりますね。音声アシスタントの応答が速くなり、インターネット接続は不要になり、音声制御機能を組み入れることも可能になります。とは言っても、例えば音楽のストリーミングサービスのようなアプリにはネットワーク接続が必要かもしれません。
顔認識
顔認識は、AIの最も急成長しているアプリケーションです。この技術は今もなお進化しており、これに伴う課題もいくつかあります。例えば2年前、Amazon Recognitionは人種差別に対する非難を浴び窮地に陥りました。このシステムは、米国国会議員と25,000枚の犯罪者の写真を比較した後、28人のマイノリティの議員を誤って犯罪者として特定したのです1。
2019年には、イギリス最大の警察組織である首都警察が顔認識技術の初期実験において、当初の不正解率が81%であったことを発表しました。ただし最新の顔認識システムでは、その精度は大幅に向上しました。また今年の始めに首都警察は、大型イベントでトラブルを起こす有名なトラブルメーカーをスキャンする技術を採用したと発表しています。
顔認識が必要な活用例では、そのほとんどがほぼリアルタイムで動作する技術を必要としています。その結果、MLモデルをネットワークエッジに移行するしかないのです。首都警察が採用したシステムは、完全スタンドアロン型でリアルタイムに動作するNECのNeoFace Watchをベースにしています。NECは、この技術のターゲットとして店舗、企業イベント、フェス、その他の大型イベント、交通機関など、その他のマーケットも視野に入れています。
リアルタイムモニタリング
重工業や鉱業では、超大型で高価な機械が必要です。万一機械が不測の事態で故障すると、会社は億単位の損失を出す可能性があります。例えば鉱業の場合、採掘物を余計な水分の影響を受けない状態にして採掘したスラリーを処理工場に送るためには高出力のポンプが頼りです。これらのポンプの一つが突発的に故障すると、作業全体が停止してしまいます。結果として鉱業会社は、故障が発生する前に予測するためのAIシステムに多額の投資をするのです。
現在これらのシステムのベースは、装置に付属のIoTセンサからデータを送るというものです。次にこのデータは中央で処理され、必要な警告があれば対象のオペレーターに送られます。しかし鉱業や工事の現場は何十キロ四方にも渡る広範囲であったり、険しい地形であったりするため、MLモデルを直接エッジデバイスに移行できれば、プロセス全体を合理化することができます。
AIとMLモデルをエッジで動作するために必要なもの
AIをネットワークエッジに移行するには、適応するハードウェア、新しいツール、そしてMLモデルを開発する新しい枠組みが必要です。これらの3つを詳しく見ていきましょう。
最適化されたハードウェア
上述の通り、MLモデルの多くは同時進行する多くの作業に依存しています。そのため、簡単に言うと純粋な計算力そのものが必要です。しかし実際には、計算力と、デバイスから供給される電力との妥協点というものがあります。そのためMLモデルをエッジに移行するには、ほとんど電力を消耗しないデバイスが必要です。デバイスを内蔵させる必要がある場合は特に切実です。幸い現在は、低電力でハイパフォーマンスのMCUがたくさんあります。
適応ツール
次に必要なものは、MLモデルをマイクロコントローラで動作させるのに適したツールです。MLフレームワークのほとんどは、Intel系64ビットCPUまたはGPU用に設計されています。一方適応するすべてのマイクロコントローラは、ARM CortexシリーズのMCUなど、32ビットの縮小命令セットコンピューター(RISC)です。ただし、TensorFlow LiteなどのMLフレームワークを開発することで、MLモデルをMCUで動作できるようになります。
Model once, run anywhere (一度作れば、どこでも実行できる)
最後のピースは、MLモデルを開発して動作させるための新しい枠組みです。「一度作れば、どこでも実行できる」というフレーズに集約されます。つまり、最適化された強力なMLで独自のモデルを作り、そのツールチェーンでプログラムを変換して、どのマイクロコンピューターでも動作できるようにすることを含意しています。残念ながらこの場合、継続学習または強化学習というメリットは除外されることになります。
妥協点
以下の表では、MLモデルをエッジで動作させたときに妥協しなければならない点を示しています。ただし、次のAIプロジェクトをエッジに移行させるかどうかの判断に役立つヒントにはなるでしょう。
特徴 |
データセンター |
エッジ |
リアルタイム |
× |
〇 |
継続学習 |
〇 |
× |
内蔵可能 |
× |
〇 |
ネットワークの必要性 |
〇 |
× |
強化学習 |
〇 |
× |
モデルのフルレンジ |
〇 |
× |
まとめ
MLモデルをエッジに移行させることでAIの新しい活用例が生まれます。そして将来的には、内蔵可能なAI革命が起こるでしょう。MCUハードウェアや、そのMCUでMLモデルを動作させるためのツールの開発が、この技術進歩の基礎を作ります。AIを使ったMCUに関する詳細については、以下をご覧ください。
出典:
1. https://www.nytimes.com/2018/07/26/technology/amazon-aclu-facial-recognition-congress.html
マーク・パトリック
2014年7月、ヨーロッパのMouser EMEAチームの一員としてマウザー・エレクトロニクス社に入社。それまではシニアレベルのマーケティング担当としてRSコンポーネンツ社に勤務。RSの前は、テキサス・インスツルメンツ社のアプリケーションサポート及びテクニカルセールス部門にて8年間勤務。コベントリー大学では電子工学部の第一級優等学位を取得。
0 件のコメント:
コメントを投稿