見出し画像

AI利権の達人・松尾豊教授の倫理問題:顔認証技術とプライバシーの危機

 日本のAI倫理の低さは世界中から批判を浴びていますが、日本のAI倫理を骨抜きにしてしまったのは誰でしょうか?

人工知能学会倫理委員会設立の趣旨
倫理委員会委員長 松尾豊(東京大学)
出典:松尾豊ほか:人工知能学会 倫理委員会の取組み, 人工知能, Vol.30, No3, pp.358-368 (2015)

 日本のAI倫理の低さに警鐘を鳴らしているのは、海外だけではありません。ジャーナリズムやマスメディア研究で知られる東京大学理事で副学長の林香里教授のように、世界的に名前の知れ渡っているAI倫理の専門家も、同じ懸念を抱いていらっしゃいます。 

 元GAFAMのAI専門家でAIの顔認証問題を提議して、世界的に有名になっているAI専門家やAI倫理専門家は非常に多く、AIによる顔認証や感情認証が、如何に社会的に弊害の大きな技術であるかということを物語っています。

 顔認証技術は人間の顔を認識するAIの一種で、これにより個々の人を特定することが可能です。この技術は、スマートフォンのロック解除、空港のセキュリティチェック、犯罪者の追跡など、多くの場面で広く利用されています。

 しかし、この技術の普及に伴い、プライバシー侵害、差別、同意の問題、データ保護と透明性などの倫理的問題が浮上してきました。これらの問題が如何に深刻な問題であるかについては、AIによる感情認識問題と併せて、別の記事で詳しく解説します。

 これらは、顔認証技術とAI倫理問題に関する一部の観点に過ぎませんが、AIが我々の生活の一部として定着するにつれて、その影響と倫理的な課題については今後も深く考察する必要があります。

 以下に顔認証技術とAI倫理に関して国際的に名前の知られている有名なAI研究者や組織の極一部を紹介します。彼らの知名度と比較すると、有機八百屋の専門性にも劣る程度のAIの専門知識しか持ち合わせていない松尾豊教授の国際的な知名度は皆無に等しいと言えるでしょう。

AI顔認識分野で国際的に著名な専門家

ティムニット・ゲブル(Timnit Gebru)
 スタンフォード大学で博士号を取得したAI研究者で、GoogleのAI倫理チームの前リーダーです。彼女の研究はAIの偏見と公平性に焦点を当てています。特に、顔認証技術における性別と人種の偏見について、様々な指摘をしています。

メレディス・ウィテカー(Meredith Whittaker)
 著名なAI研究者です。かつて米Googleの研究部門Open Research groupの責任者を務めたほか、AIの社会への影響を研究する米ニューヨーク大学のAI Now Instituteを共同で設立しています。2021年から2022年にかけては、米連邦取引委員会(FTC)委員長へのAI関連のシニアアドバイザーを務めています。彼女は極めてセキュリティが高いことで知られるSignal社の社長も兼務しています。
 
 Signalというメッセージングアプリで最初に採用されたSignalプロトコルは、Open Whisper Systems(現Signal Foundation)によって開発されたもので、Signalアプリは暗号化の専門家やプライバシーに敏感なユーザーによって広く推奨されています。Signalプロトコルはその信頼性とセキュリティ性能から、WhatsAppなどでも採用されていますが、Signalプロトコルの堅牢性については、別の記事で取り上げます。

ジョイ・ブォロムウィニ (Joy Buolamwini)
 マサチューセッツ工科大学(MIT)のメディアラボで研究しているAI研究者です。彼女はアルゴリズム・ジャスティス・リーグ(Algorithmic Justice League)の創設者で、特に顔認証技術のバイアスについて多くの研究を行っています。

ケイト・クロフォード(Kate Crawford)
 ニューヨーク大学とマイクロソフトリサーチのAI倫理研究者です。彼女はAIと社会について幅広く研究しており、顔認証技術の問題もその研究対象に含まれています。

AI顔認証問題に取り組んでいる国際的な組織

アルゴリズム・ジャスティス・リーグ(Algorithmic Justice League:AJL)
 AJLはマサチューセッツ工科大学(MIT)のメディアラボで研究を行っている前述のブォロムウィニによって設立された組織です。この組織の目的は、AIや自動化技術がもたらす潜在的なバイアスや不平等を解き明かし、それを解消することです。
 
 ブォロムウィニの研究は、特に顔認識ソフトウェアの人種や性別に対するバイアスを明らかにしています。これは、AIの開発に使用されるデータセットが多様性に欠け、特定のグループが過剰に代表されていることが原因とされています。彼女はこの問題に光を当て、AIの倫理と公正性についての議論を刺激することで、広範で重要な影響を与えています。
 
 AJLはAI技術とその影響についての教育を推進し、AIシステムの設計と使用における公正性と透明性を確保するための方法を模索しています。これらの活動は、AIが社会全体に及ぼす影響を理解し、それが公正で包括的な方法で利益をもたらすようにするために重要です。

AIナウ研究所(AI Now Institute)
 AI Now Instituteは、AIとその社会的影響についての研究を専門とする組織です。この研究所はニューヨーク大学に所在し、2017年に前述のケイト・クロフォードとメレディス・ウィテカーによって設立されました。

 AI Now Instituteの研究は、AIとその社会的な影響に関する包括的な理解を深めることに焦点を当てています。その活動は、AIと自動化が労働、個々の権利、公平性、そして社会の健全性にどのように影響を与えているかを理解するために、広範な視点を取り入れています。
 
 AI Now Instituteの創設者であるクロフォードはAIと社会学の研究者であり、Microsoft Researchの主任研究者でもあります。彼女の研究は、データ収集とAIの利用がもたらす社会的な影響について深く掘り下げています。
 
 ウィテカーは、GoogleのOpen Researchの創設者であり、以前はGoogleで働いていました。彼女はAIの影響についての広範な知識を持ち、特にAIが労働者と労働市場に与える影響についての深い理解を持っています。
 
 AI Now Instituteは、AIの社会的影響を理解し、それに対処するための方法を提供するために、幅広い視点と深い専門知識を活用しています。その研究と提言は、AIがどのように公正で包括的な方法で利用されるべきかについての重要な対話を促進しています。

電子フロンティア財団 (Electronic Frontier Foundation)
 電子フロンティア財団(EFF)は、インターネットユーザーの基本的な権利を保護するために設立された非営利団体で、個人のプライバシー、自由、イノベーションを保護するために活動しています。

アメリカ自由人権協会(ACLU)
 アメリカン・シビル・リバティーズ・ユニオン(ACLU)は、アメリカ合衆国の憲法と法律に基づく個人の基本的自由と権利を守るための非営利団体です。
 
Clearview AI、顔認識技術の米国での販売停止へ ACLUなどとの訴訟和解で

プライバシー・インターナショナル (Privacy International)
プライバシー・インターナショナルは、プライバシーを尊重する社会を実現するために、プライバシー侵害と監視の問題に取り組む非営利団体です。

センター・オン・プライバシー・アンド・テクノロジー (The Center on Privacy & Technology at Georgetown Law)
 ジョージタウン大学法科大学院のセンター・オン・プライバシー・アンド・テクノロジーは、プライバシーと公益を中心に技術問題を研究し、政策提言を行うシンクタンクです。

ビッグ・ブラザー・ウォッチ(Big Brother Watch)
 ビッグ・ブラザー・ウォッチは、個々の自由とプライバシーを保護するために、監視、データ収集、市民の権利を守るための活動を行っている英国の団体です。

フューチャー・オブ・プライバシー・フォーラム (Future of Privacy Forum:FPF)
 FPFはビジネスリーダー、学者、政策立案者らが集まり、プライバシーとデータの利用に関する重要な問題について議論し、解決策を提案するためのシンクタンクとして活動しています。FPFのCEOのJules Polonetskyは、プライバシーとデータ利用に関する広範な知識と経験を持つ専門家で、プライバシーの問題について深く考える場を提供し、効果的な政策や規制の策定を推進しています。

 これらの組織はAIとプライバシーに関する重要な課題について啓発活動を行っており、それぞれがAIの顔認証に関連する問題についても取り組んでいます。それぞれの代表者も、それぞれの分野で豊富な経験と専門知識を持っています。

 日本国外のAIの専門家と比較して、松尾豊教授が『AIの第一人者』とは、ギャグなのか、日本政府やマスメディアの『AI無知』なのか判断が微妙なところです。但し、これは日本のAI技術が低いという意味ではありません。単に松尾教授のレベルが低いにも関わらず、AIの第一人者扱いしている日本固有の複合的な『AI無知』の問題です。

この記事が参加している募集

AIとやってみた

この記事が気に入ったらサポートをしてみませんか?