見出し画像

AI時代に求められる医師とは? 〜シンギュラリティ前後で考えてみた〜

株式会社Ubie、プロダクト開発スペシャリスト・医師の原瀬です。専門は脳神経内科で、臨床業務もしながら、ヘルステックベンチャーで勤務しています。
私はキャリアの軸として「医療xテックx教育」を置いていますが、その背景から「AIと医療って今後どうなるの?」と様々な医師からdiscussionを持ちかけられる機会が急激に増えました。これはchatGPT登場によるマーケットの衝撃が医師にも伝わってきているからだと思います。(その反面、あまりご興味のない先生もいらっしゃり、まさに二極化の様相を呈しています。)

私は、2023年1月に「ヘルステックベンチャーと医療倫理」という記事を書いていますが、この時はchatGPT3.5のリリースから間もなく、ごく一般論となっていました。

今回は、医療倫理を含めて、更に広い視野で「AI時代に求められる医師」について考えてみたいと思います。そして、そもそもAIを受容すべき?排他すべき?という議論や、シンギュラリティー前後での考え方をまとめてみたいと思います。この考えは医師だけでなく、専門職全般にも関わる話になりうると思いますので、医療職に限らず読んでいただけると幸いです。

これは現時点での私個人の考えであり、非線形にAIが進化していく中ではすぐに陳腐化すると思います。自分自身でも定期的にアップデートしていきたい重要なテーマです。

この記事でも書いたとおり、今までできなかったことが突然できるような衝撃がこれから医療業界に起きると容易に想像できます。

医療業界とDXのジレンマ

未来の話をする前に、まず医療業界の現状について知ってもらいたいと思います。医療従事者からしたら当たり前の事も、テック業界にいる人からしたら衝撃の話になるかもしれません。

以下に病院規模別の電子カルテ普及率をお示しします。

令和2年時点での電子カルテの普及率。
一般診療所(多くは個人経営のクリニック)の普及率は約半分!
引用元: https://clinics-cloud.com/column/32#61c4213e4b1f490a07e10b70-1640243572231

一般診療所の半数は未だに「紙カルテ」が使われています。つまり患者さんの状態、診察内容、処方、診断名などの情報がすべて紙で記録され、診療上の「カルテ庫」に保存されているわけです。
400床以上の比較的大きな病院の9割は電子カルテ化されているから院内業務がすべてDX化されているか、と言われるとそういうわけでもなく、実際はオンプレミスで稼働して外部と情報が隔絶された孤島にあります。紹介状や検査データは未だに紙やFAXでやり取りされている状態です。

米国のEHR (Electronic Health Records)ベンダーのEpic社では以前からフルデジタル、場所・デバイスにとらわれない包括的ソフトウェア開発はできており、この時点で日本は一歩遅れていると言えます。

日本の医療業界DXや電子カルテの私見だけでも1つの記事がかけてしまいそうなので、ここでは「AI云々の話をする前に、そもそも日本の医療業界のIT基盤がbehindしているか」を知って頂ければ幸いです。逆に、AIという手段がDXやITを飛び越えてGiant Leapするhowとしての可能性を秘めていることにも注目すべきだと思います。特に自然言語でのやり取りが可能になった昨今、我々が日常で話している言語がプログラミング言語になり、UIになるからです。chatGPT4以降、マルチモーダルへの対応も果たしており、紙カルテの文字やシェーマなども理解して取り込む事も十分可能だと思われます。

医師はAIとどう付き合うべきか?

WHOやアメリカ医師会の見解

別の記事にも記載したとおり、最近の医師会界隈の声明として代表的なものとして
世界保健機関(WHO)による 2021 年のガイダンス
2018年のアメリカ医師会(AMA)の声明
2019年の世界医師会(WMA)の声明
があります。

これらに共通して言えることは、「医師はAIをArtificial Intelligence(人工知能)としてではなく、Augmented Intelligence(拡張知能)として使っていこう」というメッセージです。ただし、いずれのガイダンスもchatGPTを含むLLM(大規模自然言語モデル)が一般に浸透する前の話である点に注意が必要です。

OpenAI社の見解

chatGPTを作っているOpenAI社のポリシーを見てみると;

Telling someone that they have or do not have a certain health condition, or providing instructions on how to cure or treat a health condition
* OpenAI’s models are not fine-tuned to provide medical information. You should never use our models to provide diagnostic or treatment services for serious medical conditions.
* OpenAI’s platforms should not be used to triage or manage life-threatening issues that need immediate attention.

https://openai.com/policies/usage-policies

基本的には健康状態に対する指示を与えたり、診断・治療目的での使用も推奨されていません。これはchatGPT4においても「医学的シンギュラリティーを超えている状態ではなく」医師の判断が優先されることを(当然ながら)指し示しています。つまり、chatGPTをAugmented Intelligenceとしての使用は許容されても、それ以上の実用化は現時点では難しそうです。「じゃあ、医師はしばらく安泰だ」と思って良いのでしょうか?

シンギュラリティ前に求められる医師スキル

シンギュラリティの定義

あらためて「シンギュラリティー(技術的特異点)」について考えてみましょう。Wikipediaの定義をそのまま引用すると

科学技術が急速に「進化」・変化することで人間の生活も決定的に変化する「未来」を指す言葉

https://ja.wikipedia.org/wiki/%E6%8A%80%E8%A1%93%E7%9A%84%E7%89%B9%E7%95%B0%E7%82%B9

「AIの技術が指数関数的に進み、人間の知能や概念を大きく凌駕した知能が生まれる瞬間」と個人的には理解しています。実はここ数年で「指数関数的な」発展があり、chatGPT3.5の登場により、それが一般に知れ渡ったんですね。

個人的な見解ですが、ユースケースや対象を限定すれば、ある意味「シンギュラリティー」は超えていると言えます。「一般人が」「日常会話をする」という場面では違和感なく会話ができますし、同調や傾聴、共感、批判等もしてくれます。医療従事者でない一般人がchatGPTに質問をすると的確に指示してくれます。その内容も一般人であれば納得できる内容です。これもある種のシンギュラリティーを超えているのかもしれません。当然ながら医療者が見ればそれは間違っているとすぐ判断できますが・・・。

シンギュラリティ前(現在)は当然、医師の専門性が大きな武器になる

chatGPTをはじめ、LLMの多くはウェブ上に散りばめられた大量の言語データを解析し最適な答えを提示します。つまりLLMの世界は(現時点では)ウェブ上に閉じられているのです。オンラインに転がっている論文やブログ等は全医師の意見や、世の中に存在する全症例の概要が近似はしても完全には一致していないので、その時点でバイアスが生じている可能性もあります。chatGPTが利用するデータは圧倒的に膨大ですが、一部偏っている情報をよしなに最適化して我々の手元に届けてくれているのです。

対して、医師としての体験(言語化できない視覚、触覚などの五感を含むアートの領域)はWeb上にはあまりありません。我々の中にあります。これらを共有する何かしらのインターフェイスが発明されない限り、LLMは医師の臨床能力(特に言語化できない領域)を超えることができません。

つまり、現時点ではLLMがどれだけ賢くなり、人間らしく振る舞っても、頭でっかちな医学生が出来上がるだけです(最適化しないとちょっと偏った知識の)。

chatGPTで臨床的疑問を投げかけても、帰ってくる答えが「これじゃないんだよなぁ」と感じるのは上記が理由かもしれません。ただ、これらは将来的にさらに適正化されてくる可能性が高いです。例えば、Perplexity.aiでは「信頼性の高いソースを任意で選択し」ある程度信憑性の高い情報を扱うことが可能になっています。

シンギュラリティ後の医師の役割は?(SF的に考えてみた)

正直、私自身もこの答えを探し続けています。いつどうなるか明確な答えを持ち合わせている人はいないでしょう。

基本的には、AIはAugumented Intelligence、医師の良きパートナーとして共存していくものと思われます。優秀なPhysician's Assistantとして医師の診療を補助してくれるでしょう。AIに負けないように勉学に励み、常に批判的吟味をする医師と、AIにおんぶにだっこで診療する医師に二極化していくのではないでしょうか。

仮に「言語化が難しい医師の臨床体験」を共有できる何かしらの仕組みができたら、アートもサイエンスもAIが人間を凌駕する時代が来るかもしれません。その時、臨床における医師の出番はなくなるかもしれません。しかし、人間が最終的な診断・治療の責任を負わないといけない事は変わらないので、AIに教えてもらいながら必死に食い下がる姿を想像してしまいます。

どれだけAIが進化しても、患者は生身の人間の精神的ケアを求め続けます。医師は患者の声に耳を傾ける精神的ケアラーとしての役割も担うのではないでしょうか?(貧困層はAIのみの治療、富裕層は生身の人間が治療する、みたいなSF的な妄想もしてみますが、そんな事は絶対あってはならないと思っています)

AI時代に求められる医師とは?

長々と書いてしまいましたが、結論です。主にchatGPTを含むLLM周りとの付き合い方に関してまとめてみました。

  • AIとは「Augmented Intelligence」として付き合う。活用することで自分の知識を適切に拡張する手段とする。

    • 知識暗記時代の終焉(だいぶ前に終わってはいるが)

    • 現状だとLLMをいかに使いこなすかが鍵(Promptの使い方等)

  • LLMにできること・できないことが明瞭化している。

    • LLMにできないことに自分の価値最大化の余地となる。

  • AI時代に活躍できる研修医を育成できる

    • これはまた別記事で論じたいと思います。

今回は、「AI時代に求められる医師」と題しての総論でした。今後は、具体的なLLMの活用方法などを書いていけたらと思います。引き続き宜しくお願い致します。

参考文献

https://www.ama-assn.org/system/files/2019-08/ai-2018-board-report.pdf


この記事が気に入ったらサポートをしてみませんか?