Googleの新しい労働運動は僕らの社会の未来だ

Googleで新しい労働運動が起きている。

AIの軍事利用Project Mavenに従業員が反対した運動。

セクハラをした役員に多額の退職金を支払ったことに抗議する運動。

職場における人種差別を撤廃して融和をはかる運動。

これはみな2018年付近から起きているものだ。

この運動は「Google Walkout For Real Change」というTwitter上、そしてメールによって全世界のGoogle従業員を組織化して展開している。

この運動をリードしていた二人のGoogle従業員(Meredith Whittaker and Claire Stapleton)のうち最後の一人が7月13日に会社を去った。

そのときのオープンレターがWeb上で公開されている。

「前へ!さよなら」と題する文章は胸をうつだけではない。

いまGAFAなどのプラットフォーム企業が世界中のインフラに決定権をもつようになる可能性を持つにもかかわらず、民主的な経営や説明責任が欠けていることから、経営の民主化と公共性を有するからこそ、誰もがかかわりを持たなくてはいけないことを訴えるから心を動かされるのだ。

多くのアクターを交えた経営の民主化を実現することが必要であること。

プラットフォーム企業がTVCs(Temporary, Vendor, Contract Workers)以外は一握りの上級管理職が富を握り格差が固定化する可能性があること。

こうした決定は、ホワイトで男性が主導していること。

この状況を切り開くためには、「新しい労働運動」が必要だと説く。

アメリカではメディアに、そして議会にもこの議論が取り上げられているが、それに対して日本の議論は、まだまだプリミティブ、もしくは無邪気な感じがする。

なぜ、新しい労働組合が必要なのか、なぜAIは危険なのか、なぜほうっておいてはいけないのか。労働問題研究の新しい世界は開かれている。

機械翻訳を使いながら、拙く、突貫工事でつくった日本語訳に目を通してもらいたい。

ーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーー

前へ!もうひとつの#GoogleWalkout

さようなら

2019年7月17日

7月10日はGoogleの13周年記念日で、今日は私のGoogleでの最後の日です。

Googleでの私の経験は私が誰であるかそして私が進んでいる道を形作りました。

私がその過程でわたしを指導してくれた教え手、メンター、そして友人たちにどれほど感謝しているか、あるいはこの瞬間がどれほどシュールなものであるかを大げさにならずにお伝えすることは難しいと感じています。

グーグルに入るための私の入館バッジが機能しなくなることをまだ想像できません。私がここを去る理由は不可解なものではありません。

私がこれまで尽力してきたのは、AI Now研究所(ニューヨーク大学内)、AI倫理活動、そして説明責任を有したハイテク業界のための組織化でした。そして、そのためにはもはやGoogleがふさわしい場所ではないことが明らかになりました。

これを受け入れることは困難でした。というのもこの仕事は早急に行う必要があるからなのです。

Googleは地球上で最も強力な組織の1つです。私はまだ献身的な数千人規模の組織から今日の巨大なものへと成長するのを見るという特権にあずかることができました。[1]

GoogleはAIの世界的リーダーとして浮かびあがってきたのです(戦略、運、タイミング、および大規模な集中型データとコンピューティングリソースの組み合わせの結果として)。

これはグーグルが医療、化石燃料、都市開発 とガバナンス、交通、そしてさらにそれを超える「新しい市場」 への参入の促進したのです。[3]

その結果、Googleは、おきまりの四半期ごとの(短期的な)収益の追求において、(化石燃料の採掘の加速や監視技術の導入など、非常に危険な方法で)私たちの世界に影響を与えるための重要かつ概して未制御の力を得ています。

グーグルとは何だったのか、そしてなぜグーグルが10年以上前には偉大でありえたのかを学んでいたはずの経営陣の多くが、グーグルがどんな方向に成長しているのかについて、本当にはわかっていないのだということについて確信を得ました。

彼らは(あるべき方向へと)動機付けられてもいないのです[4]。

この巨大な力がどのように使われるか - 誰が利益を得て誰がリスクを負うか - は、私たちの時代の最も緊急な社会的および政治的(そしてそう、技術的)な課題の1つです。

なすべきことはたくさんあります。

AIの分野は圧倒的に白人と男性が支配的で、Walkout運動が強調したように、そのことを保持するためのシステムがあるのです。

一方で、社会の周縁に置かれた人々は、バイアスがある、または有害なAIのリスクの大部分を負うことになるのです[6]。

AI産業とそれが生み出すツールはすでに不平等の拡大、富める者をより強く、苦しんでいる人々を不利にしています。

これらの問題に対処し、AIが正当で、説明責任があり、安全であることを確認するには、技術の開発方法およびハイテク企業の運営方法に、重大な構造上の変更が必要になるでしょう。

倫理的原則と社内の倫理的レビューは積極的なステップとなりますが、私たちにはそれよりももっと必要なことがあるのです。

私はここで素晴らしい時間を過ごしました。
私は2006年のGoogleでのエントリーレベルの役割から、AI問題に関する研究者および公の声としての地位を確立するまで私の道を切り開きました。

私はもっと説明責任のある技術のサービスにおけるエビデンスを整理して提示しました。私は自分がしたことを誇りに思い、素晴らしい同僚とともに仕事をしたことに感謝しています。

私は積極的な構造変化の証拠や道筋を提示するように努力してきましたが、時間が経つにつれて気が付いてきたことがあります。

私の存在意義は会社の問題に真剣に取り組むよりも包括的な議論に関わるものであることだということです。

その間に、AI、偏見、不公平の問題はより切迫したものとなり、私の不安はいよいよもって大きくなるばかりでした。

打開策の一つは、AIの社会的意義を調べることができる厳密な研究の場とともに成果を公開するために、AI Now研究所をケイト・クロフォード(Kate Crawford)と共同でニューヨーク大学に設立することでした。

このことは想像以上の成功を収めていて、私たちはすでに研究と政策に大きな影響を与えています。

もう一つの打開策は、「組織化(Organizing)」を始めることでした。
というのも歴史は、強大な権力は集団的(Collective)なアクションなしにはめったに譲歩しないことを示しているからです。

「技術の倫理的危機に対処するために労働者の組織化を活用することができるのか」という試みとして始まったものは、私がこれまで関わってきた中で最も困難で満足のいく取り組みの1つになりました。

組織化された労働者、つまり「あなた」です!

あなたこそが、ほんとうの変化をもたらす力として浮かび上がってきたのです。

その力こそが、公共への説明責任、監視、および有意義な公平性を推進するものなのです。そして、世界がそれを最も必要としているときには、この権利があります。

グーグルを去ることは私にとってほんとうに感情的なことなのです。失うことがどのようなことになるのかを私は知る術がありません。幸いにも私はAI Nowで仕事を続けられます。

幾多ものGoogleで働く仲間たちがリーダーとなって、素晴らしい才能を「組織化」のために使い、経営陣の危険な共犯者となることに敢然と立ち向かい拒む――そうしたこと見ることができなければ、私は自分がGoogleを去るよりももっと悲しい思いをするでしょう。

どうか引き続き前へ進んでください!

目指すべきところはとても高いところです。 技術者の最善の意図にもかかわらず、社会的統制および抑圧のためのAIの使用はすでに出現しています。

AIが社会の基盤に組み込まれて、手遅れになってしまう前に、これらのシステムのほんとうのガードレールを築き、行動するためのごく短い機会があるのです。

私は、ここで素晴らしい仕事を続け、他人を支えるために危険を冒してきたあまたの人々に、揺るぎない支持と愛を差し出します。

Google内でこの重要な作業を継続するすべての皆様との連帯(solidarity)の中で、私が考えている来たるべきテック企業の組織化についてのいまだ不完全な地図を提供することで締めくくりたいと思います。

• 労働組合の組織化 – 効果的なやり方
 良い労働組合があり、ひどい労働組合もあります。けれども、グーグルの労働者が経営陣に説明責任を果たさせるための構造的な力を築くことはやる価値があります。

そして一般的に、これは労働組合と呼ばれていますが、外部の組合がグーグルを「組織化」して労働者の関心事を決定させることを意味するわけではありません(これは私の考えでは悪いモデルになります)。

多くの場所で、組合を自ら作ること(DIYすること)はほんとうにできるのです。互いを強く結びつけ続けるとともに、先行技術とハイテク産業を悩ませる―ほかのすべての分野の大きな影響を持つ―重大で具体的な懸念の両方を認識するといったやり方をとるという意味があります。

そしてそれは、労働組合の組織化の中心に公平性の懸念を置き続け、意思決定の舵取りに非正規労働者、下請け企業、請負労働者(TVCs: Temporary, Vendor and Contract Workers)を含めることを意味するのです。

同社(および「Future of Work:仕事の未来」)は、上級管理職を除く誰もがすぐにTVCsになる方向に向かっています。どの構造がこれらの目標を最もよく達成するかを検討する際に、私たちが手にしている労働者の権利は、組織化と集団行動(Collective Action)によって勝ち取ってきたということを思い出しながら、私は大胆さを主張するのです。

• 良心的な反対者や内部告発者を守れ!
私たちはこれまで非倫理的なプロジェクトや有害な職場の状況について発言した人々に対する報復や罰の報告を数多く目にしてきました。これは必要な変更を防ぎ、説明責任を不可能にすることに寄与しています。

Googleは、企業の暗部について話すことが安全であることを保証することができる労働者主導(Worker-led)の構造を必要としています。これらには、危険なまたは非倫理的なプロジェクトで公の人々を危険にさらすことを警告する内部告発者のための保護が含まれるべきです。

公の人々は、強力な技術システムが自分たちの生活や機会をどのように、そしてどこで形成しているかを知るに値するのです。

• 自分が何に取り組み、それがどのように使われているのか知ることを要求する
 技術システムを設計し開発している人たちは、それらがどのように使われるのか、あるいは誰によって使われるのかを知らないことが多々あります(Maven、Dragonflyなどを参照してください)。

自分が何に取り組んでいるのか、そしてそれがどのように適用されているのかを知る権利は、基本的なものとして認識されるべきです。

そしてこの権利を守るためには、Googleのインフラストラクチャーとプロセスが適応するデザインからアプリケーションまでの「権利関係の連鎖(chain of title)」を提供する必要があるのです。

これもまた、意味のある説明責任とコンプライアンスのための構造上の要件です。そのような要求は倫理的「組織化」の中核となるべきであり、彼らの生活や地域社会に影響を与える特定の技術がどこで、そして誰によって適用されているかを公衆が認識することを確実にするために拡大されうるのです。

• 企業を超えて「連帯」する
Googleの技術の適用は、比較的同質で(うまくいきやすい)Google企業内をはるかに超えて広がっています(「何十億ものユーザ、または誰もいない」、私は多くの経営陣がこういうのを聞いたことがあります)。

そのため、Google以外の場所で生活する人々は、AIモデルのクリックワーカー(作業者)のトレーニングデータ(分析用のデータ)であろうと、YouTubeの「囲い込み主導(engagement driven)」のアルゴリズム(AIの計算方法)による最も影響を受けたコミュニティであろうと、Googleの技術の本当の影響について話すのに最適な立場にあります。

Googleに説明責任を持たせ、安全な職場を確保するためには、技術労働者の組織化担当者(organizer)が、問題の最前線に立つ、独立系の研究者、ジャーナリスト、コミュニティとの強力な提携関係をつくることが必要です。

こうしたことは、より強力な組織化構造を構築するという追加的な利点をもたらします。

前へ!
メレディス(Meredith)

A文末脚注:
[1] 読みやすいので、私は企業名であるAlphabetの代わりにGoogleを使用し、そして企業構造がどうであれ、私たちは一元管理されたリソースの大部分に依存する単一の会社について話している。
[2]私は「AI」という用語を大まかに使用して、与えられた分野、トピック分野などを「理解する」ためにデータと符号化された仮定に頼る機械学習および関連技術を含め、解釈および新規データ入力の分類に応用しています。
[3]クラウドAI APIの販売は、GoogleのAI製品の範囲と意味が同社の公式製品の提供をはるかに超えて広がることを意味し、Google社員とこれらの技術の使用によって最も影響を受ける人々にはあいまいになる。
[4]私がGoogleに焦点を合わせている間、明白な理由のために、この批評はアマゾン、フェイスブック、およびマイクロソフトを含む他の多くの大手技術記号にもあてはまることになった。AIを大規模に構築するために必要な計算およびデータリソースを考えると、地球上にそれを作成する能力を持つ企業はほんの一握りしかない。
[5]これについての詳細は、AI Nowの2018年の報告を参照のこと。 : //ainowinstitute.org/AI_Now_2018_Report.pdf
[6]私の最近の議会での証言はこれらの点に焦点をあてている。AINow's Discriminating Systemsと同様、https://republicans-science.house.gov/legislation/hearings/full-committee-hearing-artificial-intelligence-societal-and-ethical報告:https : //ainowinstitute.org/discriminatingsystems.pdf

この記事が気に入ったらサポートをしてみませんか?