【雑感】生成AIを用いた契約書レビュー!?

先日AI契約書レビューサービスと弁護士法第72条(非弁行為の禁止)の関係について紹介したところであるが、本稿ではそこでもひそかに問題提起していたChat GPT等の生成AIを用いた契約書レビューと弁護士法第72条(非弁行為の禁止)の関係について雑感を述べる。


まず遊んでみた感想


筆者自身、Chat GPTを含むいくつかの生成AIに手を出してみたが、実在しない判例を作ることは稀ではなく、実在しないことを認めないケースもあり、また法概念についての理解(?)も怪しいことから、少なくとも日本語・日本法に関する真実性・正確性の保証・担保が極めて乏しいと実感している。

<過去に筆者が権利濫用に関する判例についてChat GPTで遊んだもの>

[2023.7.11 23:18更新]
元々Chat GPTのシェア機能をつかってチャット履歴のURLを貼っていたのだが、チャット履歴が消えてしまったようで、こちらのURLも紛らわしいため削除する。お詫び申し上げる。

Chat GPTはすぐに「嘘」をつく・・・そういえばこんな記事もあった・・・

<同様のテーマでBardで遊んだもの>

2023年7月10日23時頃のもの①
微妙に近いようで遠い内容となっている
2023年7月10日23時頃のもの②
①の後に少しヒントを与えたが大きな変化はない

やはり大審院判例ともなるとウェブ上で検索するにも一苦労なのだろうか。
しかし、Googleにて「宇奈月温泉事件」で検索するとWikipediaのページが一番上に表示され、そこに記載されている内容は概ね正しいことから、そこを引いてくれば良さそうなものである。

2023年7月10日23時30分頃のもの

生成AIは原典主義なのだろうか。

そこで、比較的最近の最高裁判例であり、裁判所ウェブサイトには当然掲載されている非嫡出子の相続分の合憲性に関する判例について聞いてみたのが次のものである。(平成7年合憲判決平成25年違憲判決

<Chat GPT>

[2023.7.11 23:18更新]
元々Chat GPTのシェア機能をつかってチャット履歴のURLを貼っていたのだが、チャット履歴が消えてしまったようで、こちらのURLも紛らわしいため削除する。お詫び申し上げる。

<Bard>

2023年7月10日23時頃のもの

事件番号は明らかに異なるが(行政事件ではないため(行ツ)にはなりえない)、内容は概ね正しい。その上、関連トピックとして、非嫡出子の相続分を合憲と判断した平成7年の判決(正しくは決定である)を示している。

〜閑話休題〜

筆者は、所詮このように生成AIの粗探しばかりして遊んでいるだけであり、その道の専門家に比べれば生成AIの研究も少なく、また生成AIそのものに対する理解も大雑把であるが、先日紹介した上記記事で問題となった現在の主だったAI契約書レビューサービスとの違いについて触れつつ、仮に生成AIによる契約書レビューサービスがあったら弁護士法第72条(非弁行為の禁止)との関係でどうなるのか検討してみたい。

生成AIとは


生成AI、生成系AI、あるいはGenerative AIとは、生成AIについてGoogle等を使って調べてみた結果、概ね次のようにまとめられる。

  • 入力したデータや学習済みのデータをもとに、新たなデータを出力することを目的とする

  • 新たなデータを出力する上で、学習済みのデータの中から回答を探索するというのではなく、学習済みのデータから確率的又は統計的に確からしいパターンを学習し、あたかもAIが回答を思考したかのように学習済みのデータと必ずしも一致しない出力を行う

<調査結果>

さまざまなコンテンツを生成できるAIのことです。従来のAIが決められた行為の自動化が目的であるのに対し、生成AIはデータのパターンや関係を学習し、新しいコンテツを生成することを目的としています。

NRIウェブサイト

コンピュータが学習したデータを元に、新しいデータや情報をアウトプットする技術です。これまで人間が実施していた「考える」や「計画する」をAIが実行し、アイディアやコンテンツを生み出します。

SoftBankウェブサイト

生成AIは、未加工のデータ(たとえば、Wikipediaの全文またはレンブラントの作品集)を受け取り、要求されたときに統計的に可能性のある出力を生成するように「学習」できるディープラーニング(深層学習)モデルを指します。生成モデルは学習データを簡略化した表現をエンコードし、高度なレベルで、元データと似ているが同一ではない新しい作品を作り出します

IBMのウェブサイト

生成AIとは、学習データから文章、画像、音声などの一見新しく現実的なコンテンツを生成することができる、一連のアルゴリズムのことです。最も強力な生成AIのアルゴリズムは、ラベルのない膨大な量のデータを自律的に学習して、幅広いタスク向けに基本パターンを特定する基盤モデルの上に構築されます

Boston Consulting Groupウェブサイト

生成AIは、機械学習によってテキスト、プログラムコード、画像、動画、音声、音楽などの新しいデータを生成することができるAIで、学習されたデータを集合知として新たなアウトプットを生み出す汎用人工知能となることが期待されています

pwcウェブサイト

この半年ほどの期間で、生成系人工知能(Generative AI)が複数発表され、社会的に大きな注目を集めています。基本的には、インターネット上などに存在する既存の文章や画像イメージを大量に機械学習し、これに強化学習を組み合わせなどして、一定レベルの品質の文章や画像を生成するシステムです。

東京大学「生成系AI(ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion等)について」

生成AIは、いずれのサービスも基本的に「ユーザが何らかのデータを入力して何らかの処理(保管、解析、生成、学習、再提供等)が行われ、その結果(生成物)を得る」という構造です。

大規模言語モデル(LLM)の原理は、「ある単語の次に用いられる可能性が確率的に最も高い単語」を出力することで、もっともらしい文章を作成していくものです。書かれている内容には虚偽が含まれている可能性があります。生成AIのこのような限界を知り、その生成物の内容を盲信せず、必ず根拠や裏付けを自ら確認するようにしてください。

一般社団法人日本ディープラーニング協会「生成AIの利用ガイドライン【簡易解説付】(2023年5月公開)」2頁、4頁

生成AI(ジェネレーティブAI)とは、簡単に言うと「機械学習のひとつ」であり、学習済みのデータを活用してオリジナルデータを生成するAIを指します。

生成AIが新しいコンテンツを生み出すためには、大量の学習データを与える必要があります。生成AIに活用されているデータ分析手法は主に「ディープラーニング(深層学習)」と呼ばれる機械学習の手法であり、与えられた学習データをもとにAI自身が最善の回答を探し出していくことによって「0から1を生み出す」ことができます。より高度なコンテンツを創造できるようになるということです。(中略)

しかし、そこからディープラーニングを活用することによってAIは「自ら」学習を重ねられるようになり、あらかじめ学習データを与えずともAI自身がオリジナルコンテンツを生み出せるようになりました。これが「生成AI」誕生の経緯です。

BrainPadウェブサイト
2023年7月11日21時頃にBardに「生成AIについて教えて」と聞いた回答(抜粋)

Generative AI refers to a class of artificial intelligence models or systems that are designed to generate new content or data, such as images, text, music, or even video, that resembles or is inspired by existing examples. These models are trained on large datasets and learn the underlying patterns and characteristics of the data in order to generate new, original content.

2023年7月11日23時頃にChat GPTに「What is the Generative AI?」と聞いた回答(抜粋)

なお、ここまで読めば既にわかることだが、既存の、つまりChat GPT以前のAIは次のような特徴を持つ。

  • 一定の行為を自動化し効率化することを目的とする

  • 新たなオリジナルデータを作成することを目的としておらず、データ群の傾向の抽出や所定のデータの特定のように、予測や特定に役立つデータを出力する(あくまで元データの域を出ない

NRIウェブサイト

現在の主だったAI契約書レビューサービスとは


前回の記事でも触れたが、現在の主だったAI契約書レビューサービスは、次のような特徴を持つ。

  1. 自然言語処理技術を応用したサービスであること

  2. 事前に設定され又は学習された言語情報とレビューの対象となる言語情報の類似点を捉えて識別又は分類し、相違点やフラグに対応した提案情報をの表示を「機械的に」行うサービスであること

  3. AI自身が自律的に対象となる言語情報をレビューするようなサービスではないこと

経済産業省グレーゾーン解消制度における2022年10月14日回答「契約書レビューサービスの提供」の弁護士ドットコム株式会社による照会書によれば、そこで想定されていた「AIレビュー型」とは次のようなものであり、情報の整理・分類を行った上、元データとの比較照合を行い、出力に必要なデータを特定し、予測(計算)するだけであり、上記従来型のAIに分類できると思われる。

AIレビュー型は、一般的な契約書の雛形のデータ等を大量に取得し、自然言語処理技術に基づき、類型化された契約書ごとに、固有の表現(人名、組織名、日付、数量、タイトルなど)や特徴的な表現(損害、免責、故意、過失など)などに着目しつつ、契約類型と立場毎にレビュー方針を作成します(中略)。

サービス利用者がサービス利用者の契約書を弊社の運用するクラウドサービス上にアップロードし、立場を選択し契約書レビュー機能を開始すると作成したレビュー方針を対応させ、その結果を機械的に表示し、契約内容のリスク判定、その解説、その修正例等を提供します。

リスク判定は、契約書の条項等毎に、「高」、「中」、「低」の段階をつけた判定とし、各判定は、自然言語処理技術に基づき、レビュー方針とサービス利用者の契約書との固有の表現や特徴的な表現等に着目し、その意味内容の差分を出し、その差分の度合いに応じてロジックを組み判定します。差分は、類似度として数値化して計算し、その数値を基準に「高」、「中」、「低」と振り分けます。

このリスク判定については、プログラムとしては契約書の条項等全てについて判定しますが、見直しの必要性が「高」、「中」、「低」と判定したものについてのみ仕様上表示し、併せて、解説、修正例等を提供します。「低」の基準に満たないと判定した内容については、表示すらしない仕組みとします。

2022年10月14日回答「契約書レビューサービスの提供」(照会書3頁)

なお、現在の生成AIは、データ生成のためにプロンプトの入力といった人の意思・命令を必要とするため上記3に該当することはないとは思うが、「元データの呪縛」からは解放されていることから少なくとも上記2は満たさない。

ちなみに、AIの別のカテゴリには、「強いAI」と「弱いAI」があり、上記3に該当するようなAIは強いAIに位置付けられるようである。(数十年後には開発可能という向きもあれば、開発不可能という向きもあるようである)

弱いAIは、狭義のAIとしても知られ、ユーザーの入力に基づいて質問に答えたり、チェスをするなど、特定のタスクを実行することに焦点を当てています。 それは1種類のタスクをこなすことはできても、両方をこなすことはできません。

一方、強いAIはさまざまな機能を果たすことができ、最終的には新たな問題を解決するために自己学習します。

弱いAIは精度を確保するために、学習アルゴリズムのパラメーターを定義し、関連するトレーニング・データを提供する点で、人間の干渉に依存しています。

人間の入力は強いAIの成長段階を加速させますが、必須ではありません。

弱いAIのようにシミュレーションするのではなく、時間の経過とともに人間のような意識を発達させていきます。 自動運転車やSiriのような仮想アシスタントが弱いAIの例です。

IBMウェブサイト

両者の違い


ここまで見てきたように、現在の主だったAI契約書レビューサービスは従来型のAIであり、したがって、最大の相違点は、元データから離れて「独自」のデータを出力する/できるのか、あるいは、あくまで元データを特定し又は元データとの距離を測るものに過ぎないのかである。

両者の違いを踏まえて弁護士法第72条(非弁行為の禁止)の論点はどうなるか


先日の記事の補足

現在の主だったAI契約書レビューサービスは、あらかじめ特定の事件とは離れて設定された条項案・修正案・解説・「雛形」と対象文書の間に一定の差異があった場合のリスク評価を、対象文書との比較照合により適宜出力に必要なデータを特定し、差異の距離を計算・測定し、適切と思われる修正案と解説、そしてリスク程度を表示するというものである。

そのため、特定の事件とは離れて用意された条項案・修正案・解説・リスク評価が詰まった書籍等を用意し、それと懸案の対象文書とを人力で比較照合し、必要な修正案等を特定し、自ら対象文書に反映させるのと同じことを、AIが自動的に機械的に行ってくれる。まさに従来型AIの特徴である決まった作業の自動化・効率化である。

LegalForceを運営提供するLegalOn Technologies社が、LegalForceの裏側にある元データを書籍等として販売しても同じであるといえばわかりやすいだろうか。

このため、いかなる法律書籍も、それが具体的な事件に際して利用・参照されようとも事件性のある鑑定その他の法律事務に該当することがないのと同様、現在の主だったAI契約書レビューサービスは常に事件性が否定される。(この点は先日の記事では明確に書けていなかったためこの場を借りて補足する)

また、現在の主だったAI契約書レビューサービスは法的な評価・判断を行わないと考えられることから、鑑定その他の法律事務に該当しないことは先日の記事のとおりである。

生成AIを組み込んだAI契約書レビューサービスはどうなのか

この点、LegalForceを運営提供するLegalOn Technologies社がChat GPTを活用した新たなアシスト機能をLegalForceに搭載したとのことである。

上記リリースによれば、新たなアシスト機能とは次のようなもののようである。

「ChatGPT」を活用し、当該契約書の内容を一定程度反映した文案を表示することで、企業の法務担当者や法律事務所の弁護士等の専門家の修正文案の検討にかかる労力や時間の軽減を支援することが可能となります。

「LegalForce」では、すでに自動レビュー後に、修正時の参考にしていただけるサンプル文を表示する機能を提供しています。今回、「ChatGPT」APIを活用した「条文修正アシスト」機能を提供開始することで、契約審査業務のさらなる効率化を支援します。

2023年4月4日LegalOn Technologiesプレスリリース

これだけ読んでも、対象文書となる「契約書の内容を一定程度反映した文案を表示」する以外に(そもそもどの程度反映するのかも含めて)、新たなアシスト機能が具体的にどういった機能なのかはよくわからない。

同社の新たなアシスト機能に関するnoteの記事を見つけ読んでみても、修正前の対象文書となる契約書を元に修正案を作成するとのことだが、やはりよくわからない。

実際にお客様に使っていただく際には、ChatGPTの特性をご理解いただいた上で使っていただけるよう、同意書にサインをいただいた方のみ利用できるようにしています。

さらに使用時には、「AIを用いて条文の修正案を作成できます。修正案の内容はお客様による判断が必要です。修正前の条文をもとに作成します」と表示させ、生成された文章は人間の判断が必要である旨を入れています。

「ChatGPTを活用した「条文修正アシスト」機能。爆速でβ版をリリースできた理由」

他方で、同じ記事に次のような記載があり、どういう方法かはわからないが、対象文書となる契約書をアップロードするに伴い、LegalForce側でいくつかのプロンプトを走らせることになるのだと思われる(当然か)。

ChatGPTに質問した際に中で何が行われているのかは、こちらでは把握できません。得られる結果のコントロールも難しいです。

こちら側でできることは、良い回答が表示されるように質問(プロンプト)の精度を上げていくこと。

ここについてはかなり社内でも工夫しました。

「ChatGPTを活用した「条文修正アシスト」機能。爆速でβ版をリリースできた理由」

おそらく、LegalForceにおけるChat GPTの機能は、契約書レビューの精度や性能とは無関係に、対象文書ーLegalForceの間をChat GPTで埋めることに特化されているように思われる。

<イメージ>

従前の機能:対象文書ー(生の文書と事前設定文書の差)ーLegalForce
新 機 能:対象文書ーChat GPTーLegalForce

つまり、従前の修正案提示機能は、(所詮)あらかじめ設定していてサンプル条項を表示させるだけであり、生の文書である対象文書に近づけることはできない。そのため、LegalForceの利用者により対象文書に修正案を近づける(修正案を対象文書に近づけるのかもしれないがどっちでもいい)細かい微調整が必要となる。

Chat GPTを利用することで、生の文書である対象文書から、可能な限りその契約書特有の事情や定義を抜き出し、それをLegalForceが提示するサンプル文に置き換えることを目指したのではないだろうか。

筆者は、上記LegalOn Technologies社のリリースを見た当初、「生成AIを使うということは元データとの比較照合にとどまらず新たなデータを創造することになる以上、そこに事件性なしとはいえず、また場合によっては一定の法的評価・判断を下すことになるのだから鑑定その他の法律事務に該当しないとはいえないのではないか」と考えた。

しかし、よくよく考えると(もちろん誤解かもしれないが)、上記のとおり、Chat GPTは法的評価・判断を生成するために搭載したのではなく、LegalForceのサンプル文を対象文書に近づけ、可能な限りユーザーが微調整をしなくて済むようにしたのではないかと思うようになったのである。

[2023.7.12 更新]
LegalForceのウェブサイトによれば、Chat GPTを搭載した新たなアシスト機能はやはり上記理解のとおりといえそうである。

LegalForceウェブサイト

これであれば、依然、LegalForceは全体として見れば従前型のAIの域を出ず、事件性はないし、鑑定その他の法律事務にも該当せず、したがって弁護士法第72条(非弁行為の禁止)に抵触しないといえそうである。

以上


この記事が気に入ったらサポートをしてみませんか?