見出し画像

顔認識技術のありかたを考察する「Responsible Facial Recognition and Beyond」和訳

内容を4行で

・顔認識技術は犯罪捜査、運輸、金融、医療、教育など、産業分野を超えてさまざまに活用されている
・しかし顔認識技術には、プライバシー、セキュリティ、正確性、バイアスの発生、自由の侵害の可能性といったリスクが存在する。そのためアメリカの一部都市や中国では法整備やガイドラインの作成が行われている。
・顔認識の他にも、たとえば歩き方から人種やジェンダーが識別できるなど、他のバイオメトリック情報にも顔認識に類するリスクが存在する。
・リスクの低減には法規制だけでなく産業界の取り組みも必要になってくる。

今やスマホのロック解除でも広まっている顔認識機能。犯罪捜査から金融分野のセキュリティ、さらに教育分野でもいじめ対策や出欠確認など、広く社会に普及しつつあります。

当然ながらこの技術にも倫理的なリスクはつきもの。特に顔や指紋などのバイオメトリック情報は、ジェンダーや人種を特定する手がかりにも活用でき、一度知られてしまえば一生変えようのない重要な情報です。

この論文では中国の学校で試用された事例や、サンフランシスコ議会での顔認識技術使用禁止決議などを例に挙げ、顔認識技術が抱えるリスク、そして望ましい行動指針について論じられています。

自分の勉強を兼ねて訳したものなので、誤訳などありましたらご指摘ください。

原文:https://arxiv.org/ftp/arxiv/papers/1909/1909.12935.pdf

以下、訳文

―――――――――――――

顔認識のふたつの側面

これまで世界や暮らしを変えてきたさまざまなテクノロジーと同様に、顔認識技術も元々は人間にとって役立つものとして作られた。例えば公共の安全のため犯罪者の追跡や逃亡犯の特定を行う監視システムに組み込まれている(Moon 2018; Lo 2018)。このほか、人身売買対策、誘拐犯の検出、また長期間行方不明になっている子どもの捜索にも活用されている(Jenner 2018; Yan 2019; Cuthbertson 2018)。ビジネス・金融分野では決済や配送サービスでの活用が広まっており、セキュリティ向上と詐欺の被害軽減にも役立っている(A. Lee 2017; Xia 2019; Roux 2019a)。運輸分野を見れば顔認識は空港や駅で導入されており、チェックインの時間短縮や運賃決済、また無免許運転や信号無視をした人の特定などに使われる(Liao 2018; 2019; Yi 2017; Tao 2018)。医療業界では患者の身元特定やモニタリング、センチメント分析、遺伝病の診断などに活用される(Martinez-Martin 2019; Roux 2019b; Vincent 2019a)。教育分野での顔認識は校内のセキュリティ向上、いじめ対策、出欠確認などで用いられる(Levy 2010; Chronicle 2018; Durkin 2019)。

これまでも、そしてこれからも顔認識は社会にとってさまざまな恩恵をもたらす一方で、議論は過熱しており、懸念も高まっている。プライバシー、セキュリティ、そして正確さやバイアス、自由については頻繁に争点になっている。

プライバシー:顔認識についてさまざまな懸念がある中で、プライバシーとデータセキュリティについての議論は絶えない。2019年2月、深セン市にある顔認識とセキュリティのソフトウェアの会社であるSenseNetsで、保護をかけていないデータベースから深刻なデータ流出が起こっていたことがセキュリティ専門家の調べによってわかった。流出したデータには市民250万人の記録と個人情報も含まれている(Gevers 2019)。2019年8月には、イギリスのロンドン警視庁や防衛関係の請負業者、そして銀行などで使われるデータベースに保存されている100万人分の個人情報(顔認証情報や指紋などのバイオメトリック情報を含む)が誰でもアクセスできる状態にあったことが判明している(Taylor 2019)。こうした情報流出が起これば、被害者は多大な不利益を被ることになる。特にバイオメトリック情報は不変のものなので、流出の結果は重大かつ後々まで影響が続いていく。

セキュリティ:顔認証は一般的にセキュリティ認証の手段として考えられているが、安全性が十分だと考えることはできない。研究によれば、GANで生成されたディープフェイク動画が顔認識システムにとって脅威となること、そして顔交換技術の今後の進歩を考慮するとその脅威は増していくことが示されている(Korshunov and Marcel 2018)。また別の研究では、公開されている顔認証システムの中で最高峰のArcFaceに対して、図を印刷した紙を帽子に付けて攪乱するということが行われている。

正確性:実のところ、顔認識システムを現実のシナリオに適用すると考えた場合、それほど信頼性は高くないように思われる。ある報告では、イギリスの南ウェールズで使われている顔認識システムの試験で数千件の認識ミスがあったとされる。2470件中2297件が偽陽性となっており、エラー率は92%にのぼる。自治体にとってみれば、これほどパフォーマンスが低いと、誤認逮捕や警察の負担増大などの懸念につながる(Fingas 2018)。エセックス大学で行われた評価試験では、ロンドン警視庁の顔認識技術では42件中わずか8件しか正しく検出できなかった。エラー率は82%であり、これを設置することは裁判で「合法的でない」と判断される可能性が高い(Hall 2019; Manthorpe and Martin 2019; Booth 2019)。

バイアス:堅牢さと信頼性にまつわる問題のほか、顔認識システムの設置によるバイアスの発生あるいは増幅の可能性があり、そのことがさらなる倫理的課題を生んでいる。MITメディアラボとマイクロソフトリサーチによる「Gender Shades」プロジェクトでは、IBM、マイクロソフト、そしてMegvii(Face++)の顔認識アルゴリズムを評価したが、そこでは肌の色の暗い女性は誤認識の確率が最も高く、エラー率が最大で34.4%になることが示された(Buolamwini and Gebru 2018)。アメリカ自由人権協会(ACLU)が発表した報告書では、アメリカ合衆国議会議員535人の顔写真と25000枚の逮捕者写真のデータベースを使い、アマゾンの顔認識ツール「Rekognition」を評価するという調査が行われた。結果、28件のミスがあったうち、その39%は有色人種だったが、全体の入力データの内有色人種が占めていた割合はわずか20%だった(Snow 2018)。2019年に実施された別の試験でも同様の結果となった(Ehrenkranz 2019)。アマゾンはこれに対して、試験で設定された信頼しきい値は、刑事事件のシナリオにおけるアマゾンの推奨値よりも高く設定されていたと答えている(Wood 2018)。しかしこれによって人種的バイアスが引き起こす害についての懸念と、顔認証ツールには実用に足るだけの正確性と信頼性があるのかどうかという懸念が高まっている(Fussell 2018; Singer 2018)。

自由:顔認識を組み込んだ監視システムの配置やセキュリティが不適切であった場合、効果的に公共の安全を守れなくなるだけでなく、人々の自由やプライバシーを侵害し、悪用されることもある。そのため、公共の安全と個人のプライバシーおよび自由とのバランスを取ることが不可欠である。Ipsosが実施した最近の調査では、26か国の成人のおよそ2/3が「秩序を維持する目的で政府が限定的にAIと顔認識を活用する」ことを支持した。一方、「人々のプライバシーを犠牲にしてでも政府が必要とするだけAIと顔認識を活用する」ことを支持した割合は1/3に満たず、「完全に禁止する」ことを支持した割合は1/4に満たないという結果になった(Boyon 2019)。調査では異なる国、ジェンダー、そして学歴による微妙な差違がみられるものの、顔認識技術にまつわる慎重さとオープンさには一定のコンセンサスが存在するという重要な発見であった。

ひとつのケーススタディとして、中国の学校で顔認識が採用されたことの是非が注目を集め、議論を呼んでいる。報告によれば、中国薬科大学が学生の出欠確認と教室での行動のモニタリングに顔認識ソフトウェアを導入したとされている(Smolaks 2019)。その一方、あるイベントで撮影された写真がネットで広まった。それは主要な顔認識ソフトウェア開発会社Megviiの製品が、学生がどれだけの頻度で手を挙げるか、あるいは机に突っ伏すかといった行動のモニタリングと分析をどのように行うかが示されていた(Runhua 2019)。同様の試みは他の国でも見られる(ニューヨークのSensorStar Labsのアプリ等(Alcorn 2013))。中国で起きたこの2つの事件はまもなく、教室における顔認識技術の応用についての倫理的懸念を引き起こした。学生のプライバシーと自由を侵害すると批判する意見もあれば、学生の顔画像のデータを安全に保ち、悪用を防ぐだけの能力が学校側にあるかを疑問視する声や、学生の人格形成を妨げ、AI技術への反発を誘発するのではという懸念、さらにこの事例はAIを使った教育のエンパワーメントの失敗例だという意見も見られた。中華人民共和国教育部は直ちに行動を起こし、学校における顔認識技術の活用の抑制と法規制を行う計画を立てている(Siqi 2019)。

教室での顔認識技術の利用にともなって起こりうる影響については今後広範な議論が必要になってくる。本来の動機としては学生が集中できているか、あるいは疲れているか、退屈しているか、熱心に取り組んでいるかを認識するための試みであるが、これは大きな問題をはらんでいる。人間の感情は非常に複雑であり、顔にあらわれる要素だけでは本当のことがわからない可能性がある。またこの技術の応用は、学生と教師がもともと自然に行っていた交流のやり方を変えた。教室内での感情分析の結果はちょうど学生の鏡映しのようなもので、この技術を使うことがきっかけで、教師の焦点は学生と交流して彼らを理解することではなく、この鏡映しの統計で学生を理解することへと移った。ただしこのやり方は、カメラの前で演技をする学生、感情を偽って表現する学生、あるいはこのような技術を根本的に嫌っている学生にとってはリスクが高い。さらに、起こりうる事態として、同様の技術が教室にいる教師の感情、焦点、行動を分析するために使われることもありうる。それにもマイナスの影響がある。論語に記された儒教の考えである「己の欲せざることを人に施すなかれ」(黄金律にも同様の記述がある)に基づけば、教室内での顔認識・感情認識技術の活用を支持すべきではない。この種の試みは顔認識技術の誤用とみなされるリスクが高く、特に将来の世代のことを考えると、信頼を置くべきではない。これが工場やオフィスなどで多数の人間の行動を分析するために使われる可能性もある。アマゾンがすでにAIシステムを使って倉庫作業員の生産性を管理し、基準に沿わない従業員の解雇書類作成を自動化していることを考えると、こうした懸念は全くの無根拠とも言えない(Bort 2019)。また報告によれば、中国南京市の一部の清掃作業員は、一ヶ所にとどまろうとすると位置トラッキング用のブレスレットから「仕事を続けてください」というメッセージが届くという(Hollister 2019)。こうした試みもまた、人間とAIが共生する社会を作る上でマイナスの影響を及ぼしかねない。

政策と法規制

アメリカではサンフランシスコの議会において、運輸公社や法執行機関などの出先機関における顔認識技術の使用について投票が行われ、満場一致で禁止が決まった。アメリカでは初の事例である(D. L. Lee Dave 2019; Paul 2019)。使用を禁止することで濫用やバイアスを防ぎ、プライバシーと自由を守れる、という主張だった。その数ヶ月後、サマービルとオークランドでも市内での顔認識技術の使用を禁止する法律が制定された(Wu 2019; Fisher 2019)。それ以前にも2019年3月14日に、商用顔認識プライバシー法と呼ばれる超党派の法案が上院から提出されている。これは顔認識技術の商用利用を議会が監督することを定める法案である。これにより、個人特定や顧客のトラッキングを目的とした顔画像データの収集や共有を同意なく行うことが禁止される(Hatmaker 2019)。

EUでは2018年5月25日に制定された一般データ保護規則(GDPR)によって、すでに個人情報保護が厳格に法で定められている。またEUは、EU市民に個々人の顔画像データ利用についての明示的な権利を保障することを目的に、顔認識技術の利用に厳しい制限を設けることを計画している(Khan 2019)。スウェーデンデータ保護当局(DPA)が最近、スウェーデン北部の学校で実施されたトライアルプロジェクトに対して最初のGDPRに基づく罰金を科したことは注目に値する。このトライアルプロジェクトでは出欠確認のため、顔認識ソフトウェアで22人の生徒を追跡していた(Euronews 2019; Hanselaer 2019)。スウェーデンのDPAは、法的根拠、データ保護のインパクトアセスメント、そして事前の相談なく必要以上の個人情報処理を行ったことで学校を訴追した(Edvardsen 2019)。

中国では、こうした懸念が現実的な問題となって以来、プライバシーと個人情報のセキュリティが監督の焦点になっている。2017年6月1日に施行された中華人民共和国サイバーセキュリティ法は、オンラインサービス提供者に対して、同意を得ずにユーザーの個人情報を収集し販売することを禁じている(Creemers, Triolo, and Webster 2018)。2018年5月1日には個人情報保護の国家標準となる個人情報セキュリティ仕様が施行された。これは個人情報の収集、活用、共有をどのようにすべきか示したガイドラインである(Shi et al. 2019)。

顔認識への規制は、AI全般のデータとガバナンスに直接関わってくる。中国では、次世代人工知能開発を主導する科学技術省が「新世代人工知能のガバナンス原則」を作成した(NGPNGAI 2019)。この中には公正性・正義、およびプライバシーの尊重についての原則が含まれている。中国のインターネット情報弁公室もまた、「データセキュリティ管理基準」や「ネットワーク上の子どもの個人情報保護規則」といった取り組みを行っており(CAC 2019a; 2019b)、これらの基準や規則の中ではバイオメトリック情報を含めた個人情報の保護の重要性が強調されている。

顔認識の責任ある発展には政府の法規制だけでなく、産業界の積極的な関与も重要になる。マイクロソフトは政府に顔認識の規制を訴えるかたわら、顔認識の6原則の採択を出発点として企業にも責任を負うよう積極的に呼びかけている(Brad Smith 2018b; 2018a)。報告によればマイクロソフトは顔認識プロジェクトの監視を行っていることを否定し、公開されている顔認識データセットを削除したという(Vincent 2019b; Murgia 2019)。グーグルは、悪用や予期せぬ害を防ぐため、汎用顔認識APIを提供しないという決定を下した(Google 2018)。警察用ボディカメラの大手メーカーであるアクソン(旧テーザー・インターナショナル)は自社でAI倫理委員会を立ち上げており、発表した報告書の中で、警察用ボディカメラへの顔認識技術採用は精度が向上し、また「人種、民族、ジェンダーなど、さまざまな集団で等しく高い性能を発揮する」ようになるまで差し止めるべきとの結論を出している(Axon 2019)。中国の顔認識テクノロジー企業大手のMegviiもまた、AI倫理に関連する問題を監督するための委員会を立ち上げた(Sarah Dai 2019)。

モバイル決済プラットフォームの世界最大手であるアリペイは最近、「バイオメトリックユーザープライバシーとセキュリティ保護のための取り組み」を公表し、バイオメトリック情報を収集する上での「最小限にして十分な」原則を提唱し、さらにバイオメトリック技術は「基準に沿った管理可能な」ものであるべきだと主張している(Shen 2019)。

他のバイオメトリックス認識技術における同様のリスク

顔認識はバイオメトリック認識技術のひとつであり、注意を払うべきものは他にもある。事実として、同様のリスクは、歩容認識、虹彩認識、指紋認証、音声認識などほぼ全ての種類のバイオメトリック認識技術に存在する。

歩容認識についても顔認識と同様のリスクと倫理問題が浮上している。カリフォルニア大学と北京航空天大学が実施した研究(Zhang, Wang, and Bhanu 2010)では、人間の歩容で民族を識別できることがわかっている。彼らは歩容だけを手がかりに、およそ80%の精度で東アジアの人と南アメリカの人を見分けることができた。さらに遡って2005年には、檀国大学校とサウスサンプトン大学の研究によって、歩容を使って95%の精度でジェンダーの分類ができることが示された(Yoo, Hwang, and Nixon 2005)。まとめると、歩容認識は顔認識と同様にジェンダーや民族などの特徴を抽出できるものであり、そのためにアルゴリズムのバイアスに関連するいくつもの課題が持ち上がる。

虹彩認識にも同様のリスクがある。検証によって、ジェンダー、目の色、人種が虹彩認識の精度にそれぞれ異なる影響を及ぼすことが示されている。UND光彩データベースを光彩検出にかけた場合の精度は、男性の場合で96.67%、女性の場合はわずか86%となった(Tapia, Perez, and Bowyer 2014)。異なるアルゴリズムの検証も行われたが、そこでも男性の認識精度が高いアルゴリズムと女性の認識精度が高いアルゴリズムがあることが示された(Quinn et al. 2018)。目の色について言えば、13のアルゴリズムが暗い色の目の検出精度が高く、27のアルゴリズムは明るい色の目の検出精度が高い。人種については、白人の検出精度が一番高く、アジア人の検出精度が一番低い(Quinn et al. 2018)。(Howard and Etter 2013)の論文中でも同様の結果が示されている。人種ごとの本人拒否率はアフリカ系アメリカ人>アジア人>ヒスパニック>白人となっており、一方目の色ごとの本人拒否率は黒>ブラウン>ブルー>グリーン>ヘーゼル>ブルーグリーンの順になった(Howard and Etter 2013)。

指紋認識の場合、ジェンダーの判別精度は少なくとも97%に上る(Gornale, Patil, and Veersheety 2016)。これはつまりジェンダー情報も一緒に抽出できるということで、性差別につながるリスクがある。さらに認識精度は男性の場合で91.69%、女性の場合で84.69%であり、将来的に精度のばらつきをなくすための努力が必要となる(Wadhwa, Kaur, and Singh 2013)。

責任ある未来に向けて

社会における顔認識およびそれに類するバイオメトリック認識技術の未来は、社会的観点からみたテクノロジーのリスク認識や、規制のための原則、規範、標準、政策、法律などを定めることだけでなく、責任ある未来を作り出すためにテクノロジーの面から働きかけていくことが非常に重要になる。テクノロジーの観点からは、少なくとも以下の取り組みが必要になるだろう:

認識モデルの精度と堅牢性のたゆまぬ改善:今ある顔認識モデルの多くは、限定的なデータセットに対して使った場合の精度は高いが、現実的かつ複雑なシナリオで使った場合、また敵対的攻撃を受けた場合の性能は異なってくる。安全とセキュリティ面での悪影響は特に許容できないものとなる。最終決定を下すまでのルートに人間を介在させた上で、実用に供されるモデルとサービスの精度と堅牢性を継続的に高めていくことが必要となる。

データプライバシーとセキュリティインフラのアップグレード:リスクを最小限に抑えるには、データの等級付け、アクセスコントロール、データ監査、プライバシー保護機能を備えた高セキュリティのデータインフラの開発、アップデート、そしてデプロイメントが必要になる。バイオメトリックデータについては特に重要になる。外部からの攻撃やデータ漏洩への対策としてはデータファイアウォールが求められる。

公正な認識モデルの開発:認識モデルの改善については現在、ジェンダーや人種などの多様性に乏しい特定のデータセットについての精度を向上させるという方針にとどまっている。将来的にはより公正な認識モデルの開発に力を注ぐべきだ。公正であるとは、ジェンダーや民族間での精度の差を縮め、ギャップを埋めるということだ。

インフォームドコンセント、データ撤回、モデルの再学習の技術的基礎の構築:プライバシーの認識は時間とともに変化している場合がある。認識モデルの成熟の他にも、インフォームドコンセントの下地作りは、顔認識モデルの公益への活用が広く受け入れられるためには不可欠である(GDPR 2018; BAAI et al. 2019; NGPNGAI 2019)。同時に、インフォームドコンセントの書類に書かれていることをユーザーが理解できない可能性、そして考えを変える可能性を見越して、データ削除と撤回機構の実現が求められる(GDPR 2018; BAAI et al. 2019; NGPNGAI 2019)。実際のボトルネックは、データベースからデータを削除する方法ではなく、学習内容と予測モデルからデータを削除し、最低限のコストでモデルの再学習を行うための方法である。

プライバシー保護を重視した学習方法と認識モデルの開発:顔認識などのバイオメトリック認識は、もっぱら個人のプライバシー関連データへのアクセス認証に使用される。今後の方向性としては、暗号化されたデータを使った学習や、個人情報の漏洩を防止あるいは抑制した上でデータ全体の特徴を学習できる方法の開発がある。

倫理原則を組み込んだ設計とリスク評価。責任ある顔認識、また咳になるバイオメトリック認識技術の研究、開発、実装にあたっては、倫理原則を組み込んだ設計を行った上で、サービスのライフサイクル全体を考慮するべきである。起こりうる悪影響を軽減する目的で、リスク評価のためのメカニズムとプラットフォームの開発と実装が必要となる。AIのリスク評価機関がライフサイクル内に介入し、起こりうる技術的リスクと倫理的リスクの発見、報告、軽減を行うことが求められる。

この記事が気に入ったらサポートをしてみませんか?