プログラムは書いたとおりにしか動かない、AIだってそう。
プログラムは書いた通りにしか動かないです。白だと言えば白だし、黒だと言えば黒です。
AIだってそうです。教えた内容(与えたデータ)をもとにしか判断できません。猫の写真をたくさん与えると猫について詳しくなりますが犬については詳しくなりません。偏りがあったら偏った猫の知識を覚えます。
つまり、プログラムは組む人次第、AIも学習させる人次第で何がどう動くかは決まるということです!!正しいことを教えれば正しいことをするし、間違ったことを学習させれば間違う。
言いたいのはそれだけ!!
***
🤖
***
採用に使うAIを考えてみます。
そうすると「差別をなくしたい」「性別のバイアスをなくしたい」という話が出てくることが多いです。
・・・もうそんなこと言ってる時点でバイアスありますけど・・・
「公平性のために…」という名目で何かの項目をどうにかしようとする。なぜ性別だけ?学校の成績はバイアスじゃないのですか?人間というバイアスは?地球外の生物も犬も猫も採用できるようにしなくて良いのですか?
「バイアスをなくしたい」と言って恣意的にデータを操作する時点でバイアスがあるのです。
バイアスがかかっていることの良し悪しではないです…ただAIを使ったとしても完全な公平性なんてものは出来ないという話です。
***
つまり何が言いたかったかというと!!
AIを作るのは単にプログラムを組むことの延長です。
結局は自分たちで作りたいものを作るための1手段です。ルールベースのプログラムを組んでアルゴリズムを考えるかわりに、データを大量に与えることでその近似アルゴリズムを導きだしているだけです。そのAIが気に入らない結果をだしたら気にいる結果が出るように追加で学習をさせます。その過程はプログラムを組んでバグがでたら直すのと何ならかわらないです。
AIが何かを判断しているとき、それはAIが勝手に結果を出しているわけではなく、そういう判断が出るように誰かが恣意的に学習させた結果であるということを忘れないでほしいということでした。
この記事が気に入ったらサポートをしてみませんか?