見出し画像

精度100%でないAIはダメだ...?

以前、会社をやっていた時の新規営業先で、AIを使って何かの判定をするという仕事をたくさん手掛けている会社があった。具体的な事例は機密保持に触れるために出せないが、例えば、セキュリティ認証の判定のようなものも、いくつかあった。

その会社は、顧客にAIを用いた認証システムを提案すると、「精度は100%でないんでしょう?そんなのはダメだ。」という形で、どんなに説明してもあと一歩のところで最終的に提案が通らないのが悩みだとのことだった。もちろん、AIである以上、精度100%などあり得ない。私もその相談を受けた時には、すぐには名案がなかった。

今になって思うと、説得して提案を通すことができるかはわからないが、「精度100%でないAIはダメだ」という主張を論破することは可能ではないかと思った。

人工知能(AI)と、人工知能でないもの(人工無能: 私が初めてプログラミングを始めた1997年頃はこう呼ばれていた)の違いは何だろうか。システムとは、与えられた入力に対して出力を返すものと定義したとき、人工無能ではどの入力に対してどの出力が返されるべきか明らかであると言える。そして、入力パターンが多すぎて入力と対応する出力の組み合わせを記述し尽くせないときに、人工知能の出番となる。

人工知能は、ある入力が与えられたとき、それに対応する出力がどうあるべきか仕様書の記述から読み取ることができなくても、それらしい出力をよしなに返してくれるのだ。それこそが人工知能のメリットなのである。

入力のパターンが多すぎて入力と対応する出力の組み合わせを記述し尽くせないときには人工知能を採用するメリットがあるが、そうでないときには、人工知能を採用するメリットはない。前者の場合に人工知能を採用したとして、同時に「精度100%」を得ることができるだろうか。

「精度100%」を得るためには、最低でも入力に対して対応する出力が正しいかどうかを判定する手段が必要である。もしそれが存在するのであれば、入力と対応する出力の組み合わせを仕様書に記述し尽くすことが可能であり、もはや人工知能を採用する必要はない。

結局、「精度100%でないAIはダメだ」は、自らが入力に対して返すべき出力について仕様書に記述できないことを棚に上げ、人工知能のメリットだけを享受した上で、問題が起きた時には「正しい出力」を後出しで与えて責任を転嫁する行為に他ならない。

100%の入出力の組み合わせをカバーする仕様書を作れない限り、精度100%の人工知能は実現しないのである。

この記事が気に入ったらサポートをしてみませんか?