2分で読める「生成AIのいま」Vol.18 =生成AIの効能を医師の目線で検証するには=

生成AIについてやさしく学べるブログシリーズ。

今回は"生成AI医療分野のキーオピニオンリーダー医師"として知られる米国のDr Eric Topolの論文をもとに、"生成AIの医療における効能の判断"について考えてみます。

いつものとおり、医療田さんと機械屋さんの会話でまとめました。

今回は医療田さんから機械屋さんに医師の立場からお話いただいています。

=====

機械屋

医療田さん、こんにちは。

医療田

あ、機械屋さん。いらっしゃい。今日もご苦労様!

機械屋

いえいえ。

そういえば、先日LINEで送った、Dr Eric Topolの論文"生成型人工知能のメンタルヘルス評価"、読んでいただけました?医療田さんからぜひ医師としての立場からご意見を伺いたくて、、

医療田

Dr Eric Topolね。。

わたしもこの前、米国で参加した学会で知ったけど、『Super Ager』っていうベストセラー書籍の著者なんだよね。早く和訳出てほしい本の一つ。

もともとは呼吸器内科の医師で、最近は特にデジタル医療やAIを積極的に研究していて、医療現場へのテクノロジー導入をリードする存在として世界的にも注目されている人だよ。

機械屋

そうだったんですね!著名な方だとは知っていましたが。

で、今回の論文、読んでいただいてどうでした?

医療田

そうだね。

「ああ、なるほどな、AIってだけで、つい十分な検討をすることなくその可能性に縋り付いてしまいそうになるけど。それではだめだな」って。

「新しい技術とはいえ、今までと同じように厳格に評価すべきことは変わらないんだな」って思った。

タイトルは"メンタルヘルス"に限定しているようだけど、それだけじゃなくて"生成AIの医療における効能"全般を考えていく上で大事な考えだと思ったよ。

機械屋

へえ、そうなんですね。興味深いです。論文では3つのポイントが挙げられてましたけど、それぞれ詳しく教えてもらえませんか?

医療田

もちろん。

~~~~~~

1.あらゆる主張は裏付けとなるエビデンスの質という文脈で評価すべき

医療田

まず1つ目は「エビデンスの質」。AIが話題になると、つい過大評価したくなるけど、比較対象が「何もしない人たち」だけでは不十分。

機械屋

そうなんですか。

医療田

そうだよ。薬の試験って、プラセボって言って、ほんものの薬と見分けのつかない錠剤とかを使うのね。一方には本物の薬、もう一方にはプラセボの錠剤を呑んでもらう。それで、「錠剤を呑んでるだけで効いている気がする」っていうことにならないよう、公平にするわけ。

機械屋

そうなんですね。

医療田

そう。

同じように、AIアプリケーションが患者さんの状態を向上する、という検討するんだったら、ちゃんとした比較対象を置いて厳密に評価すべき、ってこと。

機械屋

確かに、何もしない群と比べればどんなものでもよく見えちゃいますもんね。

医療田

そうそう。デジタルヘルス関連の研究では、よく「ウェイティングリスト対照」、つまり、何も介入を受けてない人隊と比較するだけで済ませてしまう傾向があるんだよね。

でも、それじゃ本当にAIが優れているのかどうかは分からないよ。

治療受けてる人からしたら「何かしてもらってるから、効いている気がする」って、気がしちゃうでしょ?

機械屋

なるほど、じゃあ、具体的にはどんな比較対象を設定するのが理想的でしょう?

医療田

理想的なのは、既存の効果が証明されたアプリやオンライン認知行動療法みたいな「これまでの、AIを使っていない治療を受けている人たち」と比較すること。そうすれば、AIの本当の優位性が明確になるでしょ?

機械屋

確かに、それなら純粋なAIの有効性が分かりますね。

~~~~~~

2.AIツールの長期的な影響に関しても注意が必要

医療田

続けて2つ目のポイントは「長期の視点」。

短期間で症状が改善するのは素晴らしいけど、本当に医療現場で使えるかどうかは、長期間にわたって効果が続くかどうか次第なんだ。

機械屋

やっぱり短期的な効果だけで評価するのは危険ですか?

医療田

そうだよ。例えば禁煙を促すAIツールとか、うつ状態を改善するAIがあったとするでしょ?

機械屋

はい。

医療田

AIを使った直後はよくなったとする。でもそのあと、効かなくなって元通りになったりしちゃったら?

機械屋

ああ、、だめ、ですね。

医療田

でしょ?癌の治療だって、一時的に病気が小さくなっても、すぐ元通りになったら意味ないじゃない?

それと同じように、AIのツールも、長期にわたって効果的かどうか、調べる必要があるんだよ。

それに、AIツールなら、途中で飽きたりやめてしまうリスクもある。そうならないための工夫も必要だしね。

機械屋

実際の患者さんの使い勝手や、続けやすさを工夫しないといけませんね。

医療田

そうだね。

ユーザーインターフェースや体験設計、さらには長期的な動機づけをどう作るかも非常に重要。そこを見極める研究が必要だよ。

機械屋

確かに、技術だけじゃなくて心理学的な視点も大切ですね。

医療田

まさに。その心理的な要素まで踏み込んで評価することが求められているんだよね。

~~~~~~

3.生成AIを使った治療介入は、医療過誤など法的責任を含む治療全体の文脈で検討される必要がある

医療田

最後に、3つ目のポイントは「法的責任」。

機械屋

なるほど。

医療田

AI自体には医療行為の法的責任やリスクを取ることができないから、必ず医師や医療スタッフの監督下で使わないといけない。

機械屋

その辺りの法的な課題はAIが普及する際には避けられませんね。

医療田

そう。

AIがどんなに優秀でも、医療ミスやリスク管理の責任をAI自身が取ることはできないからね。だから実際に医療現場に導入するには、責任を明確にした法的な枠組みをしっかり整える必要がある。

例えば、

医療者が最終判断を下し、AIはその支援をする形。これを明確に制度化することで、トラブル時の責任範囲も明確になるよね。

機械屋

つまり、人間とAIが明確に役割分担する仕組みを構築するわけですね。

医療田

そう。法制度が整うまでは、どんなにAIが優れていても現場に安心して導入できないからね。だからこそ慎重かつ厳密に評価しないといけないってこと。

機械屋

↑ Lancet 元論文より

すごく理解が深まりました。ありがとうございました、医療田さん。

医療田

とんでもない。いつもいろいろ教えてもらっているから。

わたしもこの論文を読んで、、なんだろな「AIを医療に使う」ということについて、あくまでもこれまでと同様、冷静な視点で医師として責任をもって見極めないといけないな、って思ったよ。

=====

※元論文はこちらから読めます:

https://www.thelancet.com/journals/lancet/article/PIIS0140-6736%2825%2901237-1/fulltext

▷2分で読める「生成AIのいま」シリーズバックナンバはブログからどうぞ:

https://www.youichimachida-ai.com/blog

Next
Next

2分で読める「生成AIのいま」 Vol.17 ─ サム・アルトマン論文 “The Gentle Singularity” を噛み砕く ─