見出し画像

AIは偏見やバイアスにどう対応すべきなのか

最近のChatGPTやBing Chatなどの盛り上がりの中で、プロンプトをハックすることで、AIの攻撃性や偏見やバイアスを助長するような動きがある。

もちろんこうしたプロンプトにはすぐに対応しているが、AIは過去のデータから学習し回答している仕組みとなっている限り、過去のデータに含まれている偏見やバイアスを排除することは難しい。むしろ、その偏見やバイアスを増幅してしまう恐れもある。

刑事事件の被告が将来、再び罪を犯す危険性を、データに基づいてプログラムで自動判定し、評価点を出す。そしてそれをもとに、裁判官が判決を言い渡す─。

スティーブン・スピルバーグ監督、トム・クルーズ主演のSF映画「マイノリティ・リポート」(2002年公開)を思い起こさせる「再犯予測プログラム」。その問題がクローズアップされたのは、一件の銃撃事件の裁判だった。

朝日新聞GLOBE+より

果たしてAIはどんな倫理観を持つべきなのだろうか。
そしてどんな対策があるのだろうか。

具体的には次のような対応が考えられる。

評価関数の調整
AIが学習に用いるデータやアルゴリズムに潜むバイアスを軽減するために、公平性に関わる属性(性別、年齢、国籍など)に対して、各国の憲法や法規範、国際連合の公平性に関する規範などを参考にして、データの修正やAIアルゴリズム内部での評価関数を調整する。

学習データの品質向上
AIが社会的パターンから偏見や非倫理的なバイアスを学習しないようにするために、学習データの多様性や品質を向上させる。

公平性の考慮
AIが導き出す結果に偏見や差別的バイアスが生じないようにするために、設計段階から文化やビジネス慣習によって異なる公平性を考慮する。

しかし、そもそもこういった判断をしていく基準をどこに置くべきなのかは、さまざまな意見があるだろう。

生命、プライバシー、思想と表現の自由など、人間固有の尊厳を尊重しつつ、特定の集団に対する危害や差別を引き起こす可能性のある偏見を排除する。

こういった議論は今後もっと重要になってくるだろう。

この記事が気に入ったらサポートをしてみませんか?