AIは偏見やバイアスにどう対応すべきなのか
最近のChatGPTやBing Chatなどの盛り上がりの中で、プロンプトをハックすることで、AIの攻撃性や偏見やバイアスを助長するような動きがある。
もちろんこうしたプロンプトにはすぐに対応しているが、AIは過去のデータから学習し回答している仕組みとなっている限り、過去のデータに含まれている偏見やバイアスを排除することは難しい。むしろ、その偏見やバイアスを増幅してしまう恐れもある。
果たしてAIはどんな倫理観を持つべきなのだろうか。
そしてどんな対策があるのだろうか。
具体的には次のような対応が考えられる。
評価関数の調整
AIが学習に用いるデータやアルゴリズムに潜むバイアスを軽減するために、公平性に関わる属性(性別、年齢、国籍など)に対して、各国の憲法や法規範、国際連合の公平性に関する規範などを参考にして、データの修正やAIアルゴリズム内部での評価関数を調整する。
学習データの品質向上
AIが社会的パターンから偏見や非倫理的なバイアスを学習しないようにするために、学習データの多様性や品質を向上させる。
公平性の考慮
AIが導き出す結果に偏見や差別的バイアスが生じないようにするために、設計段階から文化やビジネス慣習によって異なる公平性を考慮する。
しかし、そもそもこういった判断をしていく基準をどこに置くべきなのかは、さまざまな意見があるだろう。
生命、プライバシー、思想と表現の自由など、人間固有の尊厳を尊重しつつ、特定の集団に対する危害や差別を引き起こす可能性のある偏見を排除する。
こういった議論は今後もっと重要になってくるだろう。
この記事が気に入ったらサポートをしてみませんか?