2020年10月8日木曜日

AI開発の行方・AIストラテジスト・シャーロット・ハン氏インタビュー!

 


 

科学技術者・AIストラテジスト・基調講演プレゼンタと多くの肩書を持つシャーロット・ハン氏を迎えて、AI開発に関する今後数年の変化や考察を聞いてみました

  

インタビュー:Marcel Consée &マウザーエレクトロニクス

Q: 技術開発の経緯を見て、今後5年間で大規模な範囲にAIの導入を図る事業部門はどこだと思われますか?

シャーロット:まずは、コストとデータの検証が必要となります。ビジネスでは、効率アップによる増益またはコスト削減を目的としてAIを導入しますので。

データはAIの生命線です。データがなければAIは機能しませんので、変革が最初に起こるのはデータが存在している場所です。

これをヒントに考えると、ビジネスの最前線、セールス及びマーケティングに焦点があたります。 

これらの事業部門が他よりも早くAIを採用すると思われる理由は、売上に直接影響があるからというだけではありません。例えば「ウェブサイトに来た人」、「ホワイトペーパーをダウンロードした人」、「営業担当者と話をした人」、また「カートの中身を削除した理由」など、彼らが顧客をより理解するためでもあります。

 AIは、見込み客を自動的に振り分け、営業担当者に彼らをフォローするようタイミングよく促すことができます。またAIは、クライアントごとにパーソナライズ化したコンテンツやメッセージを提供し、顧客の求めるものを予測することもできます。

さらにセールス及びマーケティングは、AIを採用しても他の機能への影響が少ないため、AIを実装するリスクの低い分野でもあります。

次に、それら事業部門との関係性が高く、見落としてはならないのがカスタマーサポート部門です。 

既にデータ収集を開始し、顧客の行動を理解しようとしているなら、セールス及びマーケティングが得たインサイトを使用して、カスタマーサポートに活かさなければ意味がありません。つまり、顧客の維持が顧客生涯価値を高めるため、新規の顧客を獲得することよりも、既存の顧客を満足させ長い関係性を維持する方が容易であると考えます。

既存のサポート部門を今すぐ切り替えることはできませんが、、そのうち24時間体制でも疲れることなく、短時間で応答することができるバーチャルカスタマーサポートが生まれるでしょう。

他にもAIを導入する可能性が明らかに高いのは、パフォーマンスの改善や生産性の向上を絶えず試され・要求されるサプライチェーンだと思われます。

エッジコンピューティング(またはエッジAI)の台頭により、すべてのデータを中央サーバーに集約し処理して戻す処理を行わずとも、エッジコンピュータではすぐにデータを分析することができ、また即座に意思決定を行うことも可能になりました。これにより待機時間は大幅に短くなります。

例えば製造領域にロボットと異常検出ソフトを導入すれば、迅速にプロセスを効率化し、精度を向上させることができます。セールス及びマーケティング部門においてAIが顧客の欲しいものを予測できると述べましたが、サプライチェーンにおいても同様の方法で、AIが大規模に需要と供給のバランスを保ってくれます。これは何も物理的な商品に限ったことではありません。エネルギー会社は、送電網への需要急増を予測し、グリーンエネルギーを最適化するため、ますますリアルタイムの需要予測に興味を示しています。

また、サプライチェーンでは、ほとんどのデータは個人データではなく、プロセスまたは機械によって生成されるため、データプライバシーリスクへの対処はほぼ発生しないものと思われます。さらに、新型コロナウィルスの収束後にこの経済的打撃からできるだけ迅速に回復するには、きちんと管理された信頼できるサプライチェーンを装備していることが切り札になると確信しています。残念ながら、ここでAI採用に積極的でない組織とは差が付くことになるでしょう。

 

Q: 5年間でAIのインパクトを最適化するには、どのような技術的進歩が必要だと思われますか?

シャーロット:AIを実装するために、遥か彼方にある銀河系の星のような、見たこともない未来の技術を夢見る必要はないと思います。必要なのはデータの「民主化」だと思います。

クラウドコンピューティングはもちろん技術を進歩させましたが、5Gネットワークが普及する時代には、エッジコンピューティングがAI導入に拍車をかけることになるでしょう

エッジコンピュータは比較的安価で、さらにAIアクセスへのプロセスを減らしてくれます。

企業内で解決しなければならないこともあります。残念ながらiPadにタブローをインストールしていればデータを使えると思っている幹部社員がまだいることです。

そもそもAIを導入する目的は、データがパイプラインをスムーズに流れるインフラを構築することです。必要な時に利用できる「オンデマンドの水道水」が理想形です。データの80%までが構造化されていない場合は特に、データのパイプラインまたはインフラの設置が非常に重要となります。つまり、データが構造化されていてもいなくても、複数の情報源からデータを収集して取り込むことができる適切なアーキテクチャを構築することが、会社にとってAI活用の第一歩となるのです。

そしてこのアーキテクチャがあれば、必要な時にデータを高速処理・移動し、インサイトや分析結果を取得してビジネスプロセスを短縮することができるようになります。

AIの採用時に幹部社員が頭を悩ますもう一つの課題は、社内にAIを処理できる人材が不足している事実です。そのため、AutoMLAI-as-a-Serviceの重要性ばかり高まっていきます。これらを導入すると、概念をテスト、検証してから、会社に適したAIイニシアチブへ投資することができます。

 

Q: 学習型AIは利用できるデータの量と質に依存してるため、データをできるだけ中立的でバイアス(偏り)のない状態に保つには何をしたらよいでしょうか?メインのAIのためにインプットデータを「精製する」には再帰的なAIを複数採用すべきでしょうか?

シャーロット:これは難しい質問ですね。というのは、例えば完璧なトレーニングを受けた高性能のモデルを所有していたとしてもいずれは古くなりますし、「コンセプトドリフト」といわれるものが起こることもあります。コンセプトドリフトとは、入力データと出力データの関係性が予期せず変化することをいい、通常は予測の精度が劣化します。

さらに、AIDNNDeep Neural Network)でトレーニングされている場合、DNNには隠れた層が数多くあるため、DNNが導き出した結論の理由を人間が理解または説明することができないのです。これが俗にいう「AIのブラックボックス問題」です。つまり、これらが解決されない限り、メインのAIを機能させるために別のAIを採用するというのは得策ではないということです。一方良いニュースもあります。現在多くの研究者が、AIが自ら説明できるようにするためのツール開発に取り組んでいます。このような背景によって、エクスプレイナブルAI(説明可能なAIという分野が生まれ、解説及び搭載可能なモデルを開発するチームの支援を目指しています。

その日が来るまでは人間による判断に依存しなければなりません。つまりこの質問に対するベストアンサーは「私たち人間」です。

AIプロジェクトに携わる人たちは、バイアス問題を常に意識し、できる限りバイアスのないデータを収集しなければなりません。トレーニングプロセス中にデータセットにバイアスを見つけた場合は、バイアスをゼロにしなければなりません。さらに、プロジェクトや製品へより透過性を与え、厳しい監査プロセスを課し、できるだけ迅速に問題点を認識できるようにします。また別種の複数のテストデータを準備し、システムにバイアスがないことを保証することが重要です。システムが最新であることを確認するこの作業を定期的に継続して行います。

私たちは人間ですので、それぞれのバイアスがあります。AIチームの背景や経歴はバラバラである方が、お互いがお互いをチェックし、バランスを保つことができるため、チーム内で盲点を取り除きやすいチームということになります。

また人間が判断したデータをAIが審査して、異常を検出し、不一致箇所を指摘できるように、私たちがAIをトレーニングすることもできます。

 

Q:プログラムをリライトできる学習AIに特定の倫理ガイドラインを実装することは可能ですか?価値システムが各業界に枝分かれすることを考えると、これはむしろ望ましいことなのでしょうか?

シャーロット:安心してください。AIが自身でプログラミングをして制御不能になるまでにはまだ程遠い状態です。

「核兵器の不拡散に関する条約」があるように、世界が同意するハイレベルな倫理ガイドラインを持つことは重要ではありますが、行動計画はそれぞれ異なるため、個人、組織、企業などすべてが、全く同じAIの倫理規則において細かく定めることは非現実的です。

例えば自動運転車を所有していたとして(そのころには車を所有する必要がなくなるとしても)、その車には、通りを横切る犬を跳ねないようにハンドルを右に切り、結果的に私自身が死ぬかもしれないという選択をしてほしくないと思います。しかし実際自分の車が迷わず犬を轢いたとしたら、不快な思いをせずにいられるでしょうか?そして最終的に私は、モラルを最優先させ、私が命を落としてもベビーカーの赤ちゃんを救うよう設計するメーカーから車を買うのでしょうか?余り自信はありません。これがいわゆる「トロッコ問題」です。

私たちが規則を準備していたとしても、まだAIではうまく機能しません。例えば英語という言語を見てみましょう。「非の打ちどころのない英語」を完璧に話せる人は一人もいません。言語はその使用者たちによって変化し続けているのが現実だからです。完璧な文法で話す人は一人もいないのです。

AIも同様に、トレーニングを受けたデータによって進化します。

ルールをベースにするAIは、存在する全てのルールを書き込むことはできないため、拡張することができません。AIは、あらゆる可能性を探り、最適化した最善の戦略を見つけるよう設計されます。抜け道を探すよう、故意にトレーニングされるのです。ルールを書き足せば書き足すほど、AIが見つける抜け道の数は増えます。

道徳的価値は、各企業・組織が定める製品の設計哲学に反映され、消費者はそれに同意すればお金を払うようになると私は思います。洗練されていない資本主義的な考え方かもしれませんね。

政府機関が新しい技術を理解し、適切に管理できるようになるまでには常にかなりの時間がかかりますが、それでも政府の役割は重要です。しかし、私たちの時代は、国際社会から集まった機関が「AI兵器の不拡散」を主導していかなければなりません。ただし条約は本当は人間を規制するためのものになります。

 

★★★★★★★★★★★★★★★★★★★★
★★★★★★★★★★★★★★★★★★★★
 
 

シャーロット・ハン


アジア圏生まれ、アメリカの大学で学んだ後、NVIDIAをはじめ業界大手企業でDeep Learning AI Marketing Managerなどを経験し今に至る。人々の生活に役立つAI技術設計について、様々なイベント、メディアを通じて発信中。

http://www.charlottehan.com/

 

0 件のコメント:

コメントを投稿

デジタル治療でヘルスケアの未来が変わる

  医療ヘルスケアの未来   「あのう、先生、こうすると痛むんですが」。「その症状に関するアプリは、もうダウンロードしてみましたか」。医師と患者との間で こ んな会話が、不整脈、うつ病、パーキンソン病など、多くの病気について交わされるようになるのは、もうそんなに遠い先...