見出し画像

Google生成AI学習 Vol.3

今回は、前回のコースが終わったので次は3つ目のコースを受講していきます!3つ目のコースは「Introduction to Responsible AI」日本語に直すと「責任あるAI入門」ということで学んでいきたいと思います。

このコースでは、GoogleがAI原則を定めた理由、組織内における責任あるAI実践の必要性、プロジェクトのすべての段階での意思決定が責任あるAIに与える影響、組織が自社のビジネスニーズと価値観に合わせてAIを設計できることを理解することができると書いてありましたので興味がある方は最後まで見ていってください!

日常におけるAIの普及

みんなあまり実感していないが現在、多くの人々は、交通天気予報から次に見たい番組の候補まで、AIと日常的に接触しています。現在のAIシステムは、10年前には考えられなかった方法でコンピュータが世界を解釈・相互作用する能力を持っている。その発展は非常に急速。

そんなAIも完全ではなく、責任のあるAIを開発をするためには、様々な問題や制約、予期せぬ結果への理解が必要。AIを理解しておかないと問題やバイアスの増幅に繋がる恐れがある。

責任のあるAIの一般的な定義は存在せず。チャックリストや式もないため、各組織は自社のミッションと価値観に基づいてAI原則を策定しています。しかし、透明性公平性説明責任プライバシーといった共通の考え方が見られます。

Googleの責任あるAIアプローチ

Googleは誰にでも適したAIを構築することを目指しており、そのプロセスは説明責任があり、安全であるべきとしています。企業のAIアプローチはプライバシーの尊重と科学的な卓越性に基づいています。

Googleは責任あるAIを具現化するために、独自のAI原則、プラクティス、ガバナンスプロセス、ツールを開発しています。責任あるAIの設計は製品だけでなく、組織全体に取り入れられています。

AI原則は責任ある意思決定の指針として使用されており、AIプロセスのどの段階に関わっているかにかかわらず、その意思決定が影響を及ぼすと認識されています。

責任あるAIを使用するためには、明確で繰り返し可能なプロセスが重要であると強調されています。

人間がAI開発のいて中心的な役割を果たす

人間はAI開発の全段階で重要な役割を果たしています。データの収集モデルのトレーニング展開の制御など、技術製品全体の意思決定に関与しています。人間は自身の価値観に基づいて選択を行い、それが機械学習のライフサイクル全体に影響します。

したがって、開発から維持保守に至るまでのすべての段階で、責任ある意思決定が行われるように検討と評価が必要であるとされています。

責任あるAIの重要性

AIの開発と展開は、日常生活からビジネスに至るまで、社会の多くの側面に影響を与える可能性があります。そのため、開発において倫理と責任を考慮することが重要。

Googleのような企業は、倫理的な指針を提供し、信頼を築くための具体的な原則とプロセスを持っています。

つまり、AIや他の技術を開発する際には、その技術が機能するかどうかだけでなく、どのように人々の生活に影響を与えるか、倫理的な問題は何か、どのように社会的な価値観と調和するかなど、より広い視野での考察が必要であるということ。

Googleの7つのAI原則

  1. AIは社会的に有益であるべき。

  2. AIは不公平なバイアスを創造または強化するべきではない。

  3. AIは安全性の為に構築及びテストをするべき。

  4. AIは人々に説明の責任を持つべき。

  5. AIはプライバシーの設計原則に組み込むべき。

  6. AIは高い科学的卓越性を堅持すべき。

  7. AIはこれらの原則に合致する用途で利用可能でなければならない。

このほかに、以下がGoogleが追求しないAIの特定の要素の設計や展開をしないこと。

  1. 全体的な害を引き起こす可能性のある技術。

  2. 人々に直接的に傷害を与えることが主な目的または実施手段となる兵器や他の技術。

  3. 国際的に受け入れられた規範に違反する監視のために情報を収集または使用する技術。

  4. 国際法と人権の広く受け入れられた原則に反する目的を持つ技術。

つまり、悪意を持ったことをしないということ。

まとめ

この3つ目のコースでは、「責任あるAI」とはなにかについて学びました!悪用をせずにこのまま素晴らしいものができたらいいなとおもっております!それでは、最後まで見て頂きありがとうございました!確認のテストに行ってきます!

この記事が気に入ったらサポートをしてみませんか?