見出し画像

WHOが発表した大規模マルチモーダルモデルのAI倫理・ガバナンスガイダンス

世界保健機関(WHO)が新たな大規模マルチモーダルモデル(LMM)の倫理とガバナンスに関するガイダンスを発表しました。このガイダンスでは、政府、テクノロジー企業、医療提供者が40以上の推奨事項を考慮し、LMMを適切に使用して人々の健康を促進・保護するための手順が詳細に概説されています。

LMMの概要と利用分野

LMMはテキスト、ビデオ、画像など複数のデータ入力を受け付け、多様な出力を生成できるユニークな技術です。医療分野での利用分野として、診断と臨床ケア、症状や治療法に関する調査、事務的・管理的な作業、医療および看護教育、科学研究および医薬品開発が挙げられています。ChatGPT、Bard、Bertなどのプラットフォームが2023年に一般に認知され、医療への適用も進んでいます。

利益とリスクの検討

新しいガイダンスでは、LMMの医療への利用における潜在的な利益とリスクを5つの大まかな概要で示しています。特に、LMMが提供する情報の誤りやバイアス、個々の利用者への適用の公正性に関する懸念が指摘されています。

WHOの勧告と提言

ガイダンスに基づき、WHOは各国政府に対して以下の主な勧告を行っています:

  1. 非営利または公共インフラへの投資:公共、民間、非営利セクターの開発者がアクセス可能な非営利または公共インフラに計算能力や公共データセットを含むリソースを提供または投資することを奨励。

  2. 法的・倫理的な枠組みの整備:LMMやその他AI技術の医療利用が法律や倫理基準を遵守し、個々の患者の尊厳や自律性、プライバシーに影響しないようにするために、政府は法律や政策、規制を活用するべき。

  3. 独立した監査と影響評価:LMMの大規模な導入時には、データ保護や人権を含む独立した第三者による監査と影響評価が必要であり、その結果は公表されるべき。

開発者に向けた提言

開発者に対しても、透明性の高い設計に関する構造化された参加や、LMMの明確なタスクと予測可能な精度の向上が求められています。

この新しいガイダンスは、AI技術の進展と医療への応用において、公平で安全かつ倫理的な枠組みを築くための重要なステップとなります。これにより、人々の健康に対するAIの利活用がより透明で信頼性のあるものとなることが期待されます。保健分野におけるAIの進化に注目が集まります。

WHO releases AI ethics and governance guidance for large multi-modal models

この記事が気に入ったらサポートをしてみませんか?