見出し画像

プライバシー技術がAIに革命をもたらす5つの方法(2023.4.8)


AIアルゴリズムは、過去20年間の集中的な集団監視システムの上に構築されています。しかし、安定拡散やGPT-4のような最新の新しいモデルを試してみると、私たちの多くは、それでもなお、その素晴らしさを実感するのです。では、これからどうすればいいのでしょうか?

AIは最近どこにでもありますが、デジタル技術の世界ではあまり知られていない兄弟、つまり暗号があります。暗号は、人々の手に決定権を置くことによって、より社会的に埋め込まれた形の人工知能(そう、多元的です)の鍵を開けることができます。強力なプライバシー保護は、社会の観点からAIに真の革命をもたらす鍵を握っています。

今こそ、AIの議論にプライバシー保護を導入する時です。そして、それは次のようなものです。

1.AIにおけるプライバシーの強化

AIアルゴリズムは、基本的にステロイドのような統計学です。つまり、文章の次の単語、画像の次のピクセル、動画像の次の動きなどをより正確に計算するために、大量のデータを必要とするのです。

このデータはどこから来るのでしょうか?これまでのところ、この膨大なデータへの欲求は、何十年にもわたるデジタル監視によってもたらされたものがほとんどです。この意味で、AIはデータの派生物と言うことができます。実際、今日のように、AIは監視の派生物です。LinkedInやTwitterの公開データのスクレイピングから、顔認識アルゴリズムの訓練に刑務所の顔写真を使うという倫理的にはるかに疑わしいものまで、本来はプライベートな医療記録でさえ、これらの膨大なデータセットの中に現れているのです。AIは、私たち全員の不本意なデータ化によって盛り上がったデジタル産業の上に成り立っているのです。

AIをめぐる議論では、プライバシーの問題がクローズアップされ始めています。しかし、高度な暗号技術やプライバシー技術が、そうでなければ有害なAIを「プライバシーウォッシュ」するために使われる危険性があるのです。差分プライバシー、同型暗号、安全なマルチパーティ計算を使えば、機密データを保護し、個人のプライバシーを維持しつつ、AIの訓練を可能にすることができます。つまり、個人のプライバシーを維持しながら、それでもAIモデルの開発を可能にすることができるのです。しかし、これは重要な問題を提起しています:あなたのデータが機械によって読み取られるなら、それはまだ監視状態ではないのでしょうか?

答えはイエスです。たとえ個人のプライバシーが保護されていたとしても、そのデータがAIアルゴリズムに供給されれば、集団監視・管理システムに貢献することができますし、今後もそうなるでしょう。暗号化されたデータがAIを訓練し、それが他の場所で他人の監視と管理を強化するために使われる可能性があるのですから、個人のプライバシーを保護するだけでは十分ではありません

しかし、そうである必要はないのです。通信全体でデフォルトでプライバシーを確保することは、AIに関してパワーバランスを崩すための第一歩です。End-to-End暗号化、Mixnet、そしてゼロ知識証明暗号はすべて、責任のない企業が収集し、販売する個人データの量を根本的に減らすことに貢献します。強力なプライバシー保護は、パワーバランスを一般人に有利に傾ける第一歩であり、意味のある同意とそれを撤回する能力への道を開くものです。

2 コンセンサス型AIへの道を拓く

Consensual AIとは、それを実際に実現するためのツールを開発しているアーティスト、Holly HerndonとMat Dryhurstによる造語です。彼らはSpawningというグループとともに、アーティストが自分の画像を大規模なオープンデータセットから検索し、オプトアウトを要求できるプロジェクト「have I been trained」を設立しました。これは、非営利の大規模画像データセットであるLAIONとのパートナーシップによるものです。

Spawningの場合、事後的に同意を取り消すことに重点が置かれています。しかし、今後は、選択的開示方式(zk-nymsを含む)などのプライバシー強化技術や、安全な連合学習によって、事前に同意の実践を促し、人々が自分自身の条件で安全にデータを共有できるようにすることができます。また、データはローカルストレージを離れることなく分散デバイス上で処理することができ、複数のエンティティが機密データを共有することなく共通の目標に協力することができます。このような技術は、不明瞭なデータ市場で売買されるのではなく、一般の人々やコミュニティ、グループによる積極的で合意的なAIへの貢献への道を開くことができます。

プライバシー技術は、データとAIにおける意味のある同意の可能性を確保する。AIの開発がオープンで合意的かつ民主的なプロセスであることを保証するために、積極的に取り組んでいるいくつかの盛んなプロジェクトがすでにある。しかし、データについて決定する能力は、単に同意の問題だけでなく、そもそもどのようなAIを訓練するのかを誰が決定できるのかという問題でもある...。

3 主権と分権を実現する

データ、データセット、AIは中立ではありません。データの作成と記録には、常に、世界で何が重要か、それを記録すべきかどうか、どのように記録すべきかという視点が伴う。数年前、先住民のAIに関する重要なポジションペーパーが、The Initiative for Indigenous FuturesとCanadian Institute for Advanced Research(CIFAR)により発表されました。著者らは、AIがアオテアロア、オーストラリア、北アメリカ、太平洋地域の先住民の特定の世界観や認識論にどのように役立つかを論じています。実用的な使い方としては、絶滅寸前の言語を復活させたり、世界観を増幅させたりすることが挙げられます。この「先住民AI」報告書が意味するところは、AIに関心を持つすべての人に関連するものです。重要なのは、AIが実際には複数存在するということです。つまり、AIが持つ本当の可能性は、データとアルゴリズムを利用して、万華鏡のような意味と知性を増幅させることができる多くの方法にあるということを強調しています。

OpenAIは、最近リリースしたGPT-4の中で、その能力を人間の能力と比較しています: "多くの実世界のシナリオでは人間より能力が劣るものの、様々な専門的・学術的ベンチマークでは人間レベルの性能を発揮する"。米国の司法試験は、GPT-4の性能を評価するためのベンチマークの1つであった。その訓練は、英語と米国の文化、ユーモア、法的枠組み、習慣に重きを置いて行われてきました。言い換えれば、特定の文化とタスクのセットです。普遍的な「人間」と競合する普遍的な「人工知能」は存在しないのです。この議論を「人間」と「機械」の競争として捉える文化的習慣は、もっと面白い可能性を秘めた技術に対して、深く失望させ、破壊的な習慣である - これを正しく理解することさえできれば。ここでの真の問題は、AIが人間のように働くかどうかではなく、むしろ誰のために働くかです。

何が重要で何が重要でないかを見極める能力こそがAIを機能させるのであり、これは深く文化的で位置づけられた問題であり、影響を受ける人々の主権の下に決定されるべきものなのです。したがって、効果的なデータガバナンスと検証を可能にする暗号技術は、人々が重要か否かを決定することに積極的に参加できるようにするために不可欠です。

4 誤報・偽情報・ディープフェイクを防止するために

暗号証明や検証技術を用いることで、情報の正確性や出所を確認することができます。そしてこれは、支配的な文化に直面している人々による知識や情報の主権を可能にするために、ますます重要になる。また、情報を安全に検証するためにも不可欠です。Chelsea Manningは最近のインタビューで、AIツールが誤報/偽情報やディープフェイクから全く新しい問題を解き放つと指摘しています。GPT-4が、まったく検証されていないデータセットに基づいて、本質的に虚構を発明したケースがある(それは、深刻な個人的結果をもたらす虚偽の物語にさえつながった)。AIモデルは、単にデータを引き当てるという意味で「間抜け」であり、何かが真実で本物かどうかを見分け、関与することができないのです。

Hugging Faceのようなコミュニティは、オープンデータセットのキュレーション、ラベリング、共有、モデルに関する共同作業を中心にすでに生まれている。パブリック・ブロックチェーンは、検証されたデータの改ざん不可能な台帳と、台帳にデータを追加するための合意メカニズムを提供することで、こうした取り組みに貢献することができます。これにより、人々は自分たちが共有する真実の記録を形成することに参加し、AIがどのように訓練されるのかについて発言することができるようになります。なぜなら、これらは集団的な問題であり、個々の人々が日常生活の中で時間を割くことができるものではないからです。

5 人と異なるという自由を守るために-サイファーパンクの視点

AIの未来で問題になっているのは、世界で何が重要かについての中央集権的な理解に従わず、人と異なる自由であることに他ならない。1980年代後半から1990年代にかけて、サイファーパンクのサブカルチャーは、インターネットが集団監視と中央集権的な支配の手段となる未来をすでに予見していた。このサイファーパンクの予感があまり評価されていないのは、プライバシーを提唱することで、人と違うことを可能にするというポジティブな貢献です。

「AGM」や「シンギュラリティ」という考え方は、中央集権的な機械的知性に権威を委ねるという全体主義的な空想に基づくものである。そして、これらの妄想は、AIのある未来を生き残るに値する人間とそうでない人間がいる理由についての狂気の正当化へとすぐにつながってしまうのです。(実際、コンピュータ科学者のAbeba Birhaneは、AI/AGMがいかに人種差別的な疑似科学である骨相学を復活させ、それを再び科学的で普遍的な主張として再梱包しているかについて、広範囲に渡って執筆しています。プライバシーがなければ、AIの統計的専制は、異常をターゲットに変え、操作とコントロールの抑圧的なシステムを導くでしょう。

現状では、自分のデータが医療研究、クリックベイト、人種差別的な「予測警察」、無人機による攻撃などの材料になっているかどうかを知ることは不可能です。集団監視システムとAIの性質は、集団的であり関係的であることです。あなたのデータは、他の人のデータとの関連で計算され、通常は追跡することが非常に困難な方法で確率や規範を見つけるために使用されます。このため、AIは集団的に対処され、すべての通信のデフォルトとしてプライバシーが含まれなければなりません。そうして初めて、人々は自分のデータがどのように使われるべきかについて、意味のある決定を下すことができるのです。プライバシーを強化する技術は、人と異なる自由を守り、AIの開発を決定する権限を分散させることでAIに革命をもたらし、その過程で万華鏡のような知性を解き放つことができるのです。

・Chelsea ManningのAIとプライバシーに関する基調講演に注目!-10日(月)メキシコのTalentLandで開催
・AIとプライバシーに関するNymのマスタークラスに参加しよう - WebSummit in Rio in May チケットをゲットしよう!

言語: Turkish

詳細

見る

プライバシーその全体像


読む

AI can be defeated with cryptography (AIは暗号技術で打ち破ることができる)
Indigenous AI
AI Now 2023 Landscape report
A relational theory of data governance (データガバナンスの関係性理論)Viljoen, S. 2022
Algorithmic Injustice: a relational ethics approach (アルゴリズムによる不正:関係倫理のアプローチ)Birhane, A. 2021
Raw data is an oxymoron (生データはオクシモロン)Gitelman, L. 2013

Nymのコミュニティに参加


Nymのコミュニティチャンネルで会話に参加:

Discord

Twitter

Telegram

原文記事:


この記事が気に入ったらサポートをしてみませんか?