見出し画像

【論文読了】AIリスクにどう対処するか

DIAMONDハーバード・ビジネス・レビューの2023年11月号はAIリスクにどう対処するかでした。

最近はChatGPTを筆頭に、生成系AIが増えてきています。しかし著作権や情報の正確さなどに問題があります。

今月のDIAMONDハーバード・ビジネス・レビューでは、生成系AIを中心としたリスクに関する論文が掲載されています。

それでは振り返ってみましょう。


テクノロジーの進歩がもたらす「倫理的悪夢」を回避せよ

生成AIや量子コンピューティング、ブロックチェーンテクノロジーなどの破壊的なテクノロジーは、倫理面に関わる弊害をもたらしてきたそうです。

本稿では倫理的リスクに関する課題に対し、企業が講じる手立てを解説しています。

倫理的悪夢(エシカル・ナイトメア)というい言葉が出てきます。これはプライバシーの侵害や若者に精神的な悪影響を与えること、虚偽情報が暴動を引き起こすことなど、倫理的に悪いことが引き起こされてしまうことを指します。

新興テクノロジーには倫理的悪夢の懸念があるのです。

AIなどは中身がブラックボックスで、簡略化したモデルでしか説明ができません。これらのアウトプットに対して、受け入れるか、退けるかという判断も必要になります。

差別やユーザーを操作すること、非人道的、政治的な暴動につながる可能性など、技術面ではなく倫理面で問いを持って考えることが必要ですね。

多くの場合はニュースになってから改善策を考えるわけで、事前に想定できることもあれば、できないこともあると言ったところだと思います。

私は新興テクノロジーを使って製品・サービスを作る立場ではありませんが、マネジメントをやっている立場から考えてみます。

すると一般的なマネジメントでよくやるように、倫理面で起こりうるリスクを、関係者でアイディアを出して検討してみることが考えられます。また事例を探すことも参考になるでしょう。

本稿では幹部が責任を持つこと、ギャップとフィージビリティを分析すること、これらを踏まえて戦略を策定し、実行することが解説されています。

テクノロジーは便利な反面、集団をよからぬ方向へ動かしてしまう危険性や、集団に悪影響を与えてしまう影響もあります。本稿では怖い話が沢山でてきます。しかし目を背けてはいけないわけですね。

責任ある企業としてAIをどう活用すべきか

AI活用における倫理面の懸念について、8つの質問に答えている論文です。

気になった点を挙げてみます。

  • ツールが変わると効率は高まるが、標準的なプロセスは変わらない。

  • AIはツールと言うよりコラボレーションのシステムと捉える。

  • 技術システムが変化しないなら組織も変化しない。逆に技術システムが柔軟なら組織も柔軟。

  • AIが従来のテクノロジーと異なることは、可視化できず内部が不透明なこと。

  • 多くのAIアルゴリズムはデータや利用者からのフィードバックが増えることで質が上がる(自己学習型)。

  • 大規模言語モデル(LLM。ChatGPTなどが該当)はネットの情報が学習データなので正確性、公平性、適切性に欠ける。

  • AI活用にドキュメントを活用する。AI開発者がドキュメントを作り、利用者がそれを読んでリスクを理解する。

  • AIの長所を活かせるならAIを活用する。例えば大量の情報を速く処理する必要があるなど。

  • ステークホルダーや世の中に害を及ぼさずに責任を持ってAIを導入する準備ができているか、自問自答する。

生成AIが流行っている昨今ですが、AIを使えばいいのではないと感じます。使う体制づくりの話も出てきますので、経営者が採用を決めて従業員に使えと言うだけでは意味ないですね。

また今月号の色々な論文で言われていますが、悪い影響力も気にしないといけません。例えば著作権侵害であったり、間違った情報を広めてしまったりです。

こういうことは人間でもたまにはやってしまいますが、人間は学ぶことで判断ができます。しかしAIには倫理的にどうかなどは理解できません(人間でも倫理に興味ない自己中心的な人はいますが)。

テック業界が大切にすべき価値観は何か

6人の専門家の意見が書かれています。

  • 最も危険なのはAIではなく、開発者を方向付けてきた倫理観やビジネス上の動機。

  • AIによる想定外のリスクを認識して、上手くかじ取りしなければ、過ちの代償は一層大きくなる。

  • AI開発者はユーザーの優先事項、ニーズ、利用環境を軸に開発を進める必要がある。

  • AIには倫理やAIシステムを取り巻く仕組みなどは解らない(あくまでも統計学的にもっともらしい選択肢を出しているだけなので)。

  • 人種や性別で精度や評価が変わるアルゴリズムが存在する。AIシステムに使うコードやデータ、モデルの精査が必要だ。

  • 企業が製品開発に使うデータは積極的同意を得ずに収集したもので、個人のプライバシーが無視されている。

儲け優先で倫理観が後回しにされているとか、AIシステムが男性ばかり高く評価して女性の評価が低くなるとか、PCやスマホに入っているプライバシーに関するデータがいつの間にか使われているなどがあるのでしょう。

またはどこかで紙に記入したデータもシステムに入力されて使われているかもしれません。

こういうことが起こらないようによく検討してテクノロジーを活用する必要がありますね。

人にまつわるデータを倫理的に扱う方法

最近はユーザーの行動履歴からリコメンド商品や広告を出すことは一般的です。個人の行動データはWeb上だけでなく、SNSやスマホの操作履歴からも取得できます。それこそスマホなんてアプリの利用だけでなく、位置情報から行動範囲も特定できます。

SNSなどは学校や会社、仲が良い人なども特定できますし、趣味嗜好やよく行く場所も特定できます。

これらのデータがマーケティングに使われるわけです。気持ち悪いくらいに特定されているという意見を聞いたこともありますが、それほど個人データがマーケティングに使われているのです。

本稿ではデータを倫理的に5つの観点が紹介されています。出自、目的、保護、プライバシー、準備です。

特に気になった点を挙げてみます。

  • 集めたけど使われていないダークデータってありそう。

  • メールからいじめやハラスメントを予測するシステムがあるが、監視されているのは従業員からしたら気持ち悪い。

  • 匿名化されたデータでも、複数のデータを組み合わせると個人を特定できてしまうこともある。

  • 位置情報サービスなど地図とIPアドレスを組み合わせたサービスでは、IPアドレスが解れば個人の住所を特定できてしまう。

保留になってしまう案件とか作業はありがちなので、ダークデータは意外とありそうです。

メールの監視は自分の会社でも実は行われていないか?なんて気になることもあります。私はやましいことはしませんが、特定のキーワードの監視くらいは行われていそうですよね。

複数のデータを組み合わせることで個人を特定するということも可能でしょう。これは考慮が及びにくいので気を付けなければいけません。今まで考えていなかったです。

位置情報サービスで地図とIPアドレスが紐づけられているものもあるのですね。これも怖いです。もっとも私は位置情報は色々なデータを取られてリスクがあると思い、常にOFFにしていますが。

たまにSNSで堂々と位置情報を晒しまくっている人がいますが、そんなに自己アピールしたいのかなと疑問に思います。ITを積極活用しているという自己アピールなのかな?

人間とAIの相互理解が、社会に創造性と安全性をもたらす

AIが世界を持つという凄い考え方の論文です。

生成AIの力は凄い

生成AIが増えてきて、その表現力には驚かされるばかりです。しかしAIは著作権や倫理などを侵害してしまう恐れがあります。

またクリエイティブな仕事では、表現力が高ければいいのではなく、コンセプトに沿った表現であることが大事です。例えばマンガは作品ごとに絵柄が大きく違いますが、それが世界観や個性につながっています。

よって現状ではAIが作った成果物を人間がチェックして修正する必要があります。しかし画像ならレイヤー分け、音楽ならトラック分けされた状態のファイルがないと、修正が困難ですね。この辺はどうなのでしょう。

本稿では著者が落書きのような絵を描いたら、AIが本格的な絵に仕上げてくれたという例も掲載されています。

これを見ると一定以上のクオリティの絵を誰でも入手できてしまいますね。イラストを使いたいけど、イラストの勉強をしたことがないという方は、生成AIに頼ることができてしまいます。

人間とAIの違い

ところでAIは組み合わせで人間を凌駕するという話が出てきます。インプットを基にアウトプットを組み立てるのは人間もAIも同じですが、AIの方がインプットしたことの組み合わせパターンを圧倒的に速く計算できますので、そうなるわけですね。

一方で人間は模倣が得意とのことです。1枚の絵から寒さや湿気などの肌感まで感じ取ることができ、絵にも込めることができるからだそうです。

また人間は概念や哲学のような感覚的ではないものを感覚的なものに移し替える共感覚と言うものがあるそうです。

創作物には概念とかコンセプト、想いなどがこもっていますよね。でもAIは指示された通りに表現するだけです。

世界

人間は生活世界を持って生きているという話が出てきます。

本稿では絵画の世界の例が出ています。AIは絵画を学習して絵画を作り出すので、絵画のAIは絵画の世界だけで存在しています。

しかし人間は絵画の世界の表現と、例えば文学や音楽の世界の表現、あるいには日常生活で得た気付きなどを組み合わせます。

人間は複数の世界をまたいで表現を行なえるのです。AIにはこういう世界という概念が存在しません。

ではAIに世界を認識させるにはどうするか?世界モデルという世界を認識するためのモデルを作るのだそうです。

例えばゲームなら身体的構造(人型なのか、鳥型なのか、4つ足なのか)で移動の仕方が異なります。また移動可能な領域の指定もあります。

壁とか水とか山などは侵入不可でしょう。幽体なら壁を通過でき、水や山は飛行できれば通過できるのでしょうけど。

終わりに

AIと倫理観というテーマの論文が続いて、最後は概念的・哲学的な深い話が出てきました。

世界モデルは当分先でも遠くないうちに、それこそ5~10年したらそんな話題が普通に聞ける時代になってしまうかもなぁと思ってしまいます。

それよりもまずは倫理面ですね。これは精査が難しそうですし、グレーな表現になってしまった場合は検証が難しそうです。また見落としも多く発生しそうです。

多くの人はAIでできることに注意が向くでしょうから、リスクについては見落とすかもしれません。今月号を読んだ以上は、リスクをしっかり提示できるようになりたいものです。

この記事が気に入ったらサポートをしてみませんか?