見出し画像

AI倫理の5原則

ChatGPT等の生成AIがビジネスや日常生活で利用され、ますますAIは日常生活の中に一体化しつつある。同時に、その使用に伴うリスクも浮き彫りになっている。誤情報の拡散、バイアスの再生産と固定化、プライバシーや著作権侵害に関するリスクなどは、今現在私たちが取り組まなければならない課題である。これらの問題に対して、どのような指針で私たちは解決策を検討し、構築していくべきだろうか。その指針を示すのがAI倫理である。一方、近年は多くの研究機関や企業が独自にAI倫理を策定しており、AI倫理ブームの中で原則が氾濫してしまっている状態とも言える。企業や組織等で責任あるAIを取り組む際、どのような倫理を検討すべきだろうか。実務で責任あるAIに取り組む方に向けて、このブログではAI倫理の傾向と核になる5つの原則を紹介する。

AI倫理とは

AI倫理とはAIの責任ある開発と利用に関する原則のことである。AIに関連するインシデントを追い風に、特に2017年以降、AI倫理に関する研究が増加している。(Corrêa et al., 2023) 2014年時点では公平性や信頼性に関する議論が多く、2016年には説明責任、プライバシー、慈善性、そして2018年には透明性、説明可能性(XAI)等がAI倫理のトレンドとなっている。(Corrêa et al., 2023)これらのAI倫理に関する研究はアカデミックな関心から高まってきたと言うより、実際に起こっている問題に対処する必要性から実施されてきた側面がある。例えば、2016年には米国の再犯予測アルゴリズムにおいて、白人よりも黒人の方が誤って再犯リスクが高く算出されてしまうことが明らかになったが、これらのAIインシデントの発生はAI倫理文書数の増加とは無関係なものではないだろう。また2018年には自動運転による初の死亡事故が発生するなど、産業界からのニーズがAI倫理の研究を促進させてきたと言える。(Corrêa et al., 2023)

年別のAI倫理関連文書数の推移 (Correa et at., 2023)

多元化するAI倫理と統一に向けた動き

AI倫理の研究が増加するにつれて、AI原則は乱立している。例えば、6つの倫理原則に関する提言(アシロマーAI原則、モントリオール宣言、IEEEの倫理原則、Partnership on AI、AIUK、European Group on Ethics in Science and New Technologies)からは47の原則が導出されている。(Floridi et al., 2018)原則が多数存在している状態では、どれを指針として開発を行うべきか等の判断が困難になるのは想像に難くない。
ではこれらのトレンドを踏まえて、どのAI倫理が特に重要なのだろうか。特に正解があるわけではないが、ベルギーに拠点を置くAI4People InstituteのAI倫理の原則が参考になりうる。AI4Peopleは2018年に発足した。この機関はアカデミア、産業界、政府、市民社会を巻き込み、責任あるAIを開発するためのガイドライン、フレームワーク、政策等を提言している。AI4Peopleによって提言されたAI倫理ガイドラインは、2018年11月に欧州議会に提示され、欧州委員会によって設立された高等専門家グループ(High-Level Expert Group on AI)に採択されている。

AI4PeopleによるAI倫理

AI4PeopleのAI倫理原則では、大きく5つに分類ができる。そのうち4つは生命倫理の中で議論されてきた原則(慈善性、非悪意性、自律性、公正)と一致している。その4つの原則に加えて、AI倫理では説明責任を果たす指針として説明可能性が加えられている。
原則1. 慈善性(Beneficence)
慈善性は人間の幸福・利益をを最大化し、優先するものを意味している。また慈善性の範囲は人間だけにとどまらず、最も広い解釈では地球の持続可能性の重要性も含まれる。慈善性は人類と地球の幸福を促進することを中心的な価値としておいているという点で重要な指針となっている。
原則2. 非悪意性
(Non-maleficence)
慈善性がAIによる幸福や利益を促進する一方、非悪意性はAIによるリスクを警告する内容となっている。例えば、個人のプライバシーの侵害、AIによる軍拡競争、AIによる再起的な自己改善能力への脅威など、非悪意性は偶発的、意図的どちらにおいても、そのリスクに対処する必要性を示している。
原則3. 自律性(Autonomy)
自律性は自己で意思決定を行う権利を保有し、行使することを意味している。AIを利用する場合、意思決定の一部をAIに譲ることで、意思決定への自主性が意識的に、また無意識的に個人と社会から失われていくことになる。この自己による意思決定権を保持することが重要な指針の一つとなっている。
原則4. 公正性(Justice)
公正はAIによる利益が平等に分配されるだけでなく、これまでの不当な差別を撤廃し、また新たな害を被ることを防止することを意味する。特にAIはバイアスがある社会のなかで生まれたデータを学習し、予測を行うため、不当な社会構造を固定化し、その動きを強化しかねない。その不当な差別を引き起こさないことが公平性の指針となっている。
原則5. 説明可能性(Explicability)
説明可能性は透明性と説明責任を意味する原則である。上記の4つの原則において欠落しているのは、どのようにAIが人々をサポートし、利益をもたらしているか、もしくはどのように害をもたらしているかを理解する必要がある。その4つの原則を補完するものとして、説明可能性の原則は重要となっている。

今回は5つの核となりうるAI倫理の原則を紹介した。AI倫理は原則をキーワードとして理解するのではなく、その意味や背景を理解することが重要だと考えている。企業や組織等でAI倫理を検討する際、原則が多様化しすぎてなかなか検討が進まないこともあるかもしれない。そういったビジネスの前線で試行錯誤している皆様に、少しでも参考になれば幸いである。

・・・
参考
‘AI4People | Atomium-EISMD’ (no date). Available at: https://eismd.eu/ai4people/ (Accessed: 4 March 2024).
Corrêa, N.K. et al. (2023) ‘Worldwide AI ethics: A review of 200 guidelines and recommendations for AI governance’, Patterns, 4(10), p. 100857. Available at: https://doi.org/10.1016/j.patter.2023.100857.
Floridi, L. et al. (2018) ‘AI4People—An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations’, Minds and Machines, 28(4), pp. 689–707. Available at: https://doi.org/10.1007/s11023-018-9482-5.
Floridi, L. and Cowls, J. (2019) ‘A Unified Framework of Five Principles for AI in Society’, Harvard Data Science Review, 1(1). Available at: https://doi.org/10.1162/99608f92.8cd550d1.
Jobin, A., Ienca, M. and Vayena, E. (2019) ‘The global landscape of AI ethics guidelines’, Nature Machine Intelligence, 1(9), pp. 389–399. Available at: https://doi.org/10.1038/s42256-019-0088-2.


この記事が気に入ったらサポートをしてみませんか?