2分で読める生成AIのいま Vol.25 - 医療機関に朗報?!オープンソースモデル"GPT-oss"の紹介 -
文書要約に便利なChatGPTですが、患者さんの情報はChatGPTには入力しちゃダメ。
そんな医療現場の悩みに応えるかもしれないのが、OpenAIが公開した“GPT-oss”。
なぜ解決策となるのか。オープンソースという概念とともに、医療分野での可能性を考察しました。
いつもの通り、医療田さんと機械屋さんの会話形式で、わかりやすく解説します。
======
医療田:
ねえ、機械屋さん。
機械屋:
なんでしょう、医療田さん。
医療田:
この前はさ、GPT-4bの話をしてもらったじゃない?
なんかそういう、「GPTの派生商品」みたいなやつ、ほかになんかある?
機械屋:
派生商品、、ですか^^;
ああ、そういえば、この前"GPT-oss"というモデルが出たんですが、これは結構、医療田さんにもかかわりが深いと思いますよ。
医療田:
おっ?
1. OpenAIによる、久しぶりの"オープンソースソフトウェア"
機械屋:
まず"GPT-oss"の"oss"ですが、これは
「オープンソースソフトウェア(Open Source Software)」
を表しているようです。
オープンソースっていうのは、ソースコードや学習済みモデルが無償で公開されていて、誰でも閲覧・改良・再配布ができる仕組みのことなんです。
いわば、「自由に使ってよし」ということですね。
医療田:
なるほど。
機械屋:
オープンソースタイプの大規模言語モデルとして有名なものでは、Meta社のLlamaシリーズとか、中国のDeepSeekなんかが代表例です。
医療田;
あ、すでにオープンソース型の大規模言語モデルって、、
機械屋:
そう、存在はしているんですよ。
とはいえ、あのChatGPTのOpenAIによるオープンソースモデル、というのは大きいですよね。
実はOpenAIは、さかのぼること6年前、GPT-2をオープンソースモデルを公表していたのですが、それ以来のものとなります。
医療田:
へえー。
機械屋:
逆に、ChatGPTやGPT-5は「クローズドモデル」といって、モデルの中身や学習方法は非公開、利用はAPIといわれる仕組みや、"ChatGPT"がまさにそうですが、アプリ経由してのみ、利用が可能です。
医療田:
ふむふむ。なるほど、オープンとクローズドでそんな違いがあるんだね。
2. 医療現場における"GPT-oss"の可能性
機械屋:
で、このGPT-ossは、特に医療田さんのお仕事にも関係が深いんですよ。
医療田:
えっ?どういうこと?
機械屋:
クローズドモデルの一例として、、
医療田さん、ChatGPTって、どこで応答を生成しているか、ご存じですか?
医療田:
ネットにつないで使うんだから、パソコンの中ではないよね。
たしか大規模データセンター、だったっけ?
機械屋:
そうです。
クローズドモデルは基本的にデータセンターを経由して処理します。
当然、医療機関から使用した場合、入力された内容は外部に出ることになり、学習に使用される可能性もあります。
ですから、患者情報のようなセンシティブなデータを外部に送るのは難しかったわけです。
医療田:そうだよねえ。
機械屋:
一方、オープンソースモデルは自前のローカルサーバーに格納して利用できるんです。
医療田:
お!ということは。。
機械屋:
そうです。「個人情報を施設の外に出さずにAIを使う」ことが可能になるわけです。
さらに、オープンソースモデルの場合、"自分たちでチューニング(微調整)"もできるので、退院サマリの下書きや院内マニュアル検索など、現場ニーズに合わせたAIが作れるんです。
しかも、オープン(公開)ソースですから、GPT-ossの導入や利用に費用は掛かりません。
医療田:
ええええ! すごいじゃん。
で、気になる性能はどのくらいなんだろう?その"oss"ちゃん。
さすがに、最新のGPT-5と同じ!とまではいかないでしょ?
機械屋:
ええと、そうですね、
OpenAIの公式サイトによると―
"gpt-oss-120b モデルは、単一の80GB GPU で効率的に稼働しながら、コア推論ベンチマークで OpenAI o4-mini とほぼ同等の結果を達成します。gpt-oss-20b モデルは、一般的なベンチマークで OpenAI o3‑mini と同様の結果を出し、わずか16 GBのメモリを搭載したエッジデバイスで実行でき、デバイス上のユースケース、ローカル推論、またはコストのかかるインフラストラクチャなしに、迅速な反復処理をこなします。どちらのモデルも、ツール使用、few-shot の関数呼び出し、CoT 推論(Tau-Bench エージェント評価スイートの結果に見られる)、HealthBench(OpenAI o1 や GPT‑4o などの独自モデルよりも優れたパフォーマンスを発揮)でも優れたパフォーマンスを発揮します。"(https://openai.com/ja-JP/index/introducing-gpt-oss/)
だそうですよ。
医療田:
機械屋さん、、
だめだよ。そんな文章、誰も2分で読んでくれないよ?
機械屋:
ですよね。。すみません。
わかりやすく言うとこんな感じです:
・GPT-ossには軽量版と本格版があって
・軽量版の"GPT-oss-20B"は、だいたいo3-miniと同じくらい、上位機種のゲーミングノートPCでも動く。
・本格版の"GPT-oss-120B"は、o4-miniに近い、
80GBクラスGPU1枚(数百万円)という追加設備で動作可能。
―というところです。
軽量版の20GBでも、2024年2月にリリースされた、o1軽量版モデルくらいの性能があるということですから、日常業務の大部分は網羅できそうですよね。
医療田:
へえ!本格版はともかく、軽量版はパソコンでも動いちゃうんだ!?
機械屋:
そのようです、
といっても、60万円以上する、GPU付きの上位モデルですけどね。
3. どのような準備が必要か、可能性は何があるか?
医療田:
あ、そうか。
うーん、1台60-80万のPCかあ。
今、病院の予算、厳しいからなあ、、
今すぐみんな一斉に使ってみる!
というのは難しそうだね。
機械屋:
でも、工夫の余地はありますよ。
例えば、サーバー集中方式。
病院に1台サーバーを置いて、各端末はWebブラウザ経由でアクセスする。
この場合、複数人が同時にAIを使用できます。
ただその場合、PCのスペックはさらに本格的なものを用意する必要がありますが。
医療田:
なるほどねー。
======
●2分で読める「生成AIのいま」シリーズ。バックナンバはブログからどうぞ!