在宅医療とAI:ChatGPT teamを使って医療への生成AI導入
当院のnote一発目ですが、「いきなりAI?」と思われるかもしれません。
しかし、非常にHotな領域、そしてChatGPT teamの発表から、医療への発展性に感激していますので、一旦ここから始めていきたいと思います。
※掲載する内容は、検証、及び実験段階であり、実際に使用してはおりません。教育への使用への検討、十分に吟味した上で、実用していこうと考えております。
AIの医療分野への導入は、利益が大きく注目される一方で、プライバシー、個人情報保護、データの安全性といった課題を含んでいます。
特に、患者のカルテや医療情報を扱う際の個人情報の問題は、臨床現場でAIを利用する上で最も重要な懸念事項です。
この状況の中で、ChatGPTをはじめとするAI技術の利用について考える際、学習データとして個人情報を利用しない「ChatGPT team」プランの導入は、その懸念を解決するアプローチです。
現状や課題、解決策よりもまず先に実例を見て実感いただければと思います。実例からどうぞ!
「ここまでできる」ChatGPT×在宅医療の実例
1.デモ病歴の作成
個人情報が保護されているので、実際の症例でもいいですが、noteに掲載するに当たり、デモ病歴を使用することにしましょう。
プロンプト
ChatGPTの回答をそのまま載せます。
課題と目標まで書いてくれました。実際にありそうな病歴ですね。
このデモ病歴を使用して、今回作成してGPTsに読み込ませて見ましょう。
まずは初診時を意識して作成してみます。
2.訪問看護指示書の作成
訪問看護指示書は、書く内容のフォーマットがあり、それらに指示を入力していく形式で作成します。
プロンプト
こちらもそのままです。
この指示書がものの数十秒でできてしまうわけです。本当にすごいですし、更に患者さんの状態や生活背景に沿った指示書が作成できるのです。もちろんそれぞれの情報が正しいかはチェックする必要がありますし、自立度も選択して提示してくれますが、患者さんの状態に合わせて変更する必要があります。
3.返書作成GPTs
回答:
このように、かなりの精度で、しかも、これまでの労力をかなり軽減して作成してくれます。これまでの例はほんの一例です。少しのコツさえ掴んでしまえば、GPTs作成も簡単にできます。そして、その手段が会得さえすれば応用は簡単にできます。
実際の作成方法はや他の例は、また次回にでもと思いますが、この実例を通して、在宅×AIに新たな風が吹いているのを実感いただけたらと思います。
AIの医療への導入の現状と課題
臨床現場でのAI利用の制約:
現状、AI技術は医療分野で広く注目されていますが、臨床現場での利用にはまだ多くの制約があります。特に、ChatGPTのようなAIが提供する情報の正確性や信頼性、医療行為への直接的な適用可能性が課題となっています。
私はAIの専門家ではありませんが、簡単にAI、機械学習のメカニズムについて解説します。
AI、特に機械学習やディープラーニングの技術は、膨大な量のデータからパターンを学習し、その知識を活用して新たな問題に対する解答や予測を生成することができます。具体的には、AIシステムは過去のデータセットをトレーニングに使用し、テキスト、画像、音声などの入力から関連性や意味を抽出することで、文脈に応じた次の単語や画像の一部、あるいは特定の問題に対する最適な解答を予測します。
また、AIの学習プロセスは反復的であり、利用者からのフィードバックを積極的に取り入れることで、その精度を向上させます。利用者から提供された「良い回答」と「悪い回答」のフィードバックを基に、AIシステムは自身の回答や予測がどのように改善されるべきかを学習し、その結果としてより正確で適切な出力を生成する能力を高めていきます。
このように、AIは膨大なデータの分析と学習により、人間が提供する情報や過去の経験を基に、驚くような生成を行っています。そして、継続的なフィードバックと学習を通じて、AIシステムは日々進化し、さまざまな分野での応用範囲を広げています。
このメカニズムはすなわち、chatGPTを含め既存のAIシステムに個人情報を利用すると、学習に利用されてしまうということになります。実際に、企業情報を入力して、まだ世にでていない情報がchatGPTからoutputされたという事例は報告されています。
個人情報の保護:
医療データは非常に個人的かつ繊細な情報を含むため、これらの情報がAIによって学習されることなく、安全に利用される必要があります。特に病院のカルテ情報などは、外部との通信が制限されており、ローカル環境で管理されているため、個人情報の保護が強化されています。それはすなわちChatGPTを使用することができないともとれます。
在宅領域からAIが発展する?
在宅のクリニックはクラウド型のカルテを使用していることが多いと思います。クラウド型のカルテは外部と通信しながら使用するカルテですので、いわば普段使用しているPCで診療しているようなものです。このPCではもちろんChatGPTを使用することができますし、今後新たなAIツールが開発された場合に導入がスムーズにいくという強みがあります。
在宅医療におけるAI技術の利用は、医療全般へのAI導入の先駆けとなり、医療サービスの質の向上に寄与すると期待されています。
解決策としてのChatGPT team
ChatGPT「team」プランの導入:
現在比較的簡単に利用可能な生成AIにChatGPTとgoogleの提供するGeminiがあります(Bing AIはChatGPTの為割愛)。ChatGPTの「team」プランは、入力されたデータを学習データとして利用しないことを保証しており、医療データの個人情報保護に対する重要な解決策となり得ます。他の生成AIやGeminiはこの機能がありません。Geminiは学習に利用しないようにオプトアウト方式で設定できますが、この機能でも72時間保持されてしまうというデメリットがあります。ChatGPT teamプランにより、AIを安全に医療現場で利用するための基盤が整います。
なぜGeminiよりChatGPTか
個人情報の保護という時点でGeminiは選択肢から外れてしまうのですが、もし、入力した情報を保護してくれるとしても、今のところはChatGPTのほうが良いと思います。もちろん、Geminiの機能自体は素晴らしいです。何より、googleの他サービスとの連携が良いという点と、ChatGPTより長文を更に早く生成できるという強みがあります。
その強みを除いてもChatGPTがいいとするのはGPTs(Generative Pre-trained Transformer)にあります。
AIや機会学習の技術は、現代のデジタル社会において非常に重要な役割を果たしています。しかし、その進化とともに、これらの技術を日常的に使用する際のユーザビリティの問題が浮上しています。特に医療界のように、デジタルに強い人ばかりではない分野では、新しい技術の導入に際して、使用者の視点を深く理解し、それに応じたカスタマイズが求められます。
Geminiでも「プロンプトを毎回入力する」ことで、同様の効果を生むことは可能です。しかし、その行為は、時間がかかり、煩雑であると感じる人も少なくありません。このようなハードルは、特にITリテラシーが低い人々にとって、新しい技術へのアクセス障壁となり得ます。
したがって、GPTやその他のAI技術をより広く普及させるためには、「誰でも使える」ことを重要な目標として設定する必要があります。これは、単に技術が先進的であることだけではなく、それを使いこなすことができる人々の範囲を広げることを意味します。アーリーアダプターから始まる技術革新の波は、その後、より広いユーザー層に受け入れられ、使いやすさが向上することで、初めて真の意味での革新となり得ます。
GPTsは毎回プロンプトを入れる必要がなく、ある程度使いやすくカスタマイズしてあげることができます。こうすることで、ユーザーやスタッフは簡単な操作で、ChatGPTのメリットを広く享受し、活用することができます。
Copilotではだめか
確かにCopilotはword,powerpointなどとの親和性は高いですが、機会学習に入力内容が利用されるかどうかが不明です。個人情報保護の観点から、まだ使用は危ないと思われます。またGPTsの提供もありませんので、先述と同様の理由によりChatGPTのほうが良いと思われます。
ChatGPT team以外の解決策としては自前PCにローカル環境としてChatGPTのような生成AIを開発するという方法もあると思われますが、技術的な課題が多いということと、GPTsを作るのは難しいという点が挙げられます。
ChatGPT teamの実際
teamプランを使用してみたポイントをまとめると、
・GPTsを複数のユーザーで共有できる
・参加者は皆ChatGPT-4及びプラグインを使用できる
・個々のユーザーは自分のチャット履歴を他人に見られない
・チームメンバー間での直接的なコミュニケーション機能は提供されていない
teamという割には、あまりteam用のツールがない。と思ったのが最初の印象です。しかし、個人のチャットは共有されずプライバシーは保護されるし、GPTsは開発して共有できるので、このくらいの使用でも良いのかなと思っています。しかし、今後の更新によって変わっていくかもしれません。
個人的に思う注意点としては、外部から提供されるGPTsやプラグインについて、情報漏洩のリスクが明確にされていないため、慎重に使用する必要があります。OpenAIは、外部のGPTsに関しては、それぞれの提供者のポリシーに従うとしていますが、これはデータの使用について完全な保証がないことを意味します。そのため、機密性の高い情報を扱う際には、特に注意が必要です。(保護されているという情報をご存知の方はご教示いただけますと幸いです)
teamプランの導入により、ITリテラシーの低いユーザーでもGPT技術を利用しやすくなることを目指していますが、外部リソースの利用に関しては、セキュリティやプライバシーの観点から、使用前にしっかりとリスクを評価することが重要です。
まとめ
在宅医療で、機械学習、効率化というのは離れている領域、親和性がないと思われるかもしれませんが、このように効率化できる裏の部分は徹底的に効率化を図るのも1つの手だと思います。それにより、表の部分、すなわち患者さんの診療、及び会話に時間をかけることができると思います。
今回ChatGPT teamという非常にHotな領域が出てきましたのでAIの話から始めましたが、日常の当院の取り組みや、学習したことなどについてもnoteで書いていくつもりです。
これからもChatGPTを含め、機械学習、生成AI、業務効率化についてこのnoteで伝えていければと思います。定期的に更新していきますので、
ぜひフォローのほどよろしくお願い致します。
この記事が気に入ったらサポートをしてみませんか?