見出し画像

信頼されるAIとサービスのための多層的なアプローチ

AI の発展と懸念

今日、ディープラーニングによる精度の飛躍的向上により、様々な業界で人工知能(AI)の応用が着実に普及しています。広告配信、パーソナライゼーション、不正検知、需要予測、金融資産運用、ドローンデリバリー、ロボティクス、交通の最適化、癌の診断や治療等にAIが活用されています。AIは社会の新たなインフラとして捉えられており、今後も進化を続け、我々の生活を支え、より便利なものへと変えていくことが期待されています。
AIはその華々しい発展の一方、懸念もあります。例えば、処理過程のブラックボックス問題や、データバイアスに伴うAIの公平ではない判断や出力結果による影響等です。
AIが幅広く社会で使われるようになればなるほど、このような問題によることのリスクもまた大きくなります。そこで、AIの処理過程やデータの偏りを説明しやすくしようという方法論として、説明可能なAI、Explainable AI(XAI)というキーワードも出てきました。

ですが、AIにまつわるリスクは説明可能性の確保によってその全てが回避できるわけではありません。信頼されるAIとサービスの実現には、さらに多層的なアプローチが必要となります。

信頼されるAIの活用を実現していくには以下3つのレイヤを意識した総合的な取り組みが求められます。

信頼できるAIの原則
システム・サービスの中に組み込まれたAIのリスクコントロール
ユーザー視点での保証されるべき権利

信頼されるAIの活用のための3つのレイヤ

簡単にそれぞれについて見ていきたいと思います。

信頼できるAIの原則

これは、AIが様々な技術や製品に応用されていき、社会で活用されていくことを想定した際に求められる、AIのそもそもの設計原則やAIが備えておくべき機能的な要件に該当します。AIに関する透明性や説明可能性を確保し、公正・公平でない活用は防止されるべきと考え、ELSI(倫理的・法的・社会的影響)考慮の観点から、開発上の原則や指針として多くの組織・団体によってまとめられてきています。AIの安全性を研究する非営利団体 Future of Life Instituteによる「アシロマ 原則」や、Microsoft や Google によるAI原則はよく知られています。


デロイトでは、公平性・透明性・説明可能性に加えて、頑健性(ロバストネス)やセキュリティ、プライバシー等の観点も踏まえた「Trustworthy AI」というフレームワークを開発しており、これに準拠したAI開発のためのプラットフォームの提供も行っています。


システム・サービスの中に組み込まれたAIのリスクコントロール

AIが単体で信頼されるものとして機能する上での設計原則や機能要件は前述の原則や指針、フレームワークでカバーされます。しかしそれはAIの製品としての品質保証とその活用における心構えというものであり、実務上のユーザーとのインタラクションを踏まえたリスクコントロールにおいてはより現実的なレイヤも必要になります。
多くのケースにおいては、AIはシステムやサービスの中の一部の機能として組み込まれ、エンドユーザーに価値を提供しています。この際には、AIが用いられているサービス全体のリスクを分析し、サービス提供者、ユーザーのそれぞれの留意事項を踏まえた上で、運用要件やユーザーコミュニケーション上の論点も明らかにしておく必要があります。
このようなテーマに応えるべく、東京大学とデロイトトーマツが共同で、「リスクチェーンモデル(RCModel)」というモデルを開発しています。

リスクチェーンモデルガイド
https://ifi.u-tokyo.ac.jp/wp/wp-content/uploads/2021/07/RCM_210705.pdf

これは、様々なAIサービス提供の形態の存在を踏まえつつ、AIサービス提供者が自らのAIサービスに係るリスクコントロールを検討するのを助ける枠組みとなっています。AIを用いるサービス全体のリスクを分析する視点を与え、AIの技術的構成要素に加え、サービス提供者の行動規範、ユーザーの理解・行動・利用に関する論点の明確化に活用することができます。


ユーザー視点での保証されるべき権利

AIが組み込まれているサービスに対して、ユーザーから見たときに保証されているべきユーザーの権利というものが議論されています。
昨今、デジタル時代におけるプライバシー保護の気運を受けて、例えば、EUを中心にいくつかの国で、「透明性」「選択」「コントロール」というユーザー原則が打ち出されています。これはデジタルアドを中心として議論がされてきた原則ですが、AIの活用というコンテキストに当てはめるとそれぞれ、「AIの判断過程がユーザーに公開可能か」、「ユーザーがAIの利用を選択できるか」、「ユーザーが自分のデータをコントロールできるか」を意味することになります。MicrosoftやGoogle等の企業もこれら3つの原則を満たす形でのデジタルマーケティングの運用やAIの適用を始めています。


現代のプライバシーに関する不安は、デジタルサービスの裏側で一体何が起きているのかを把握し自分自身で選択してコントロールしたいというユーザーの意識につながっています。前述のユーザーとのコミュニケーションという観点をこえて、このようなユーザーの根源的ニーズの変化にきちんと応えれるかどうかも、信頼できるAIとサービスの実現に欠かせなくなっているといえるでしょう。

終わりに

以上、信頼されるAIの活用を実現していくのに必要な3つのレイヤについて概観しました。このような多層的なリスクコントロールを実施することは、企業にとっても多くのメリットがあります。例えば、ユーザーが、AIが適切な判断をしていることや企業がAIに対して厳格なガバナンスを実施し説明責任も果たしていることを知り、信頼できるようになることで、製品やサービスの顧客体験やエンゲージメントの向上につながります。また、AIのリスクコントロールへの理解とその成熟を通して、企業はAIの活用をより推進していくことができ、そのポテンシャルを最大化していくことができます。加えて、ステークホルダーを巻き込んだAIの戦略的活用とガバナンスの実現につながります。
AIは今後ますます社会の隅々で使われていくことでしょう。企業においては、AIの多層的なリスクコントロールの必要性と意義、そして、その実務的な価値を認識して、その適用に向かって歩みを進めておくべきです。



この記事が気に入ったらサポートをしてみませんか?