2分で読める生成AIのいま Vol.25 - 医療機関に朗報?!オープンソースモデル"GPT-oss"の紹介 -

文書要約に便利なChatGPTですが、患者さんの情報はChatGPTには入力しちゃダメ。

そんな医療現場の悩みに応えるかもしれないのが、OpenAIが公開した“GPT-oss”。

なぜ解決策となるのか。オープンソースという概念とともに、医療分野での可能性を考察しました。

いつもの通り、医療田さんと機械屋さんの会話形式で、わかりやすく解説します。

======

医療田:

ねえ、機械屋さん。

機械屋:

なんでしょう、医療田さん。

医療田:

この前はさ、GPT-4bの話をしてもらったじゃない?

なんかそういう、「GPTの派生商品」みたいなやつ、ほかになんかある?

機械屋:

派生商品、、ですか^^;

ああ、そういえば、この前"GPT-oss"というモデルが出たんですが、これは結構、医療田さんにもかかわりが深いと思いますよ。

医療田:

おっ?


1. OpenAIによる、久しぶりの"オープンソースソフトウェア"

機械屋:

まず"GPT-oss"の"oss"ですが、これは

「オープンソースソフトウェア(Open Source Software)」

を表しているようです。

オープンソースっていうのは、ソースコードや学習済みモデルが無償で公開されていて、誰でも閲覧・改良・再配布ができる仕組みのことなんです。

いわば、「自由に使ってよし」ということですね。

医療田:

なるほど。

機械屋:

オープンソースタイプの大規模言語モデルとして有名なものでは、Meta社のLlamaシリーズとか、中国のDeepSeekなんかが代表例です。

医療田;

あ、すでにオープンソース型の大規模言語モデルって、、

機械屋:

そう、存在はしているんですよ。

とはいえ、あのChatGPTのOpenAIによるオープンソースモデル、というのは大きいですよね。

実はOpenAIは、さかのぼること6年前、GPT-2をオープンソースモデルを公表していたのですが、それ以来のものとなります。

医療田:

へえー。

機械屋:

逆に、ChatGPTやGPT-5は「クローズドモデル」といって、モデルの中身や学習方法は非公開、利用はAPIといわれる仕組みや、"ChatGPT"がまさにそうですが、アプリ経由してのみ、利用が可能です。

医療田:

ふむふむ。なるほど、オープンとクローズドでそんな違いがあるんだね。


2. 医療現場における"GPT-oss"の可能性

機械屋:

で、このGPT-ossは、特に医療田さんのお仕事にも関係が深いんですよ。

医療田:

えっ?どういうこと?

機械屋:

クローズドモデルの一例として、、

医療田さん、ChatGPTって、どこで応答を生成しているか、ご存じですか?

医療田:

ネットにつないで使うんだから、パソコンの中ではないよね。

たしか大規模データセンター、だったっけ?

機械屋:

そうです。

クローズドモデルは基本的にデータセンターを経由して処理します。

当然、医療機関から使用した場合、入力された内容は外部に出ることになり、学習に使用される可能性もあります。

ですから、患者情報のようなセンシティブなデータを外部に送るのは難しかったわけです。

医療田:そうだよねえ。

機械屋:

一方、オープンソースモデルは自前のローカルサーバーに格納して利用できるんです。

医療田:

お!ということは。。

機械屋:

そうです。「個人情報を施設の外に出さずにAIを使う」ことが可能になるわけです。

さらに、オープンソースモデルの場合、"自分たちでチューニング(微調整)"もできるので、退院サマリの下書きや院内マニュアル検索など、現場ニーズに合わせたAIが作れるんです。

しかも、オープン(公開)ソースですから、GPT-ossの導入や利用に費用は掛かりません。

医療田:

ええええ! すごいじゃん。

で、気になる性能はどのくらいなんだろう?その"oss"ちゃん。

さすがに、最新のGPT-5と同じ!とまではいかないでしょ?

機械屋:

ええと、そうですね、

OpenAIの公式サイトによると―

"gpt-oss-120b モデルは、単一の80GB GPU で効率的に稼働しながら、コア推論ベンチマークで OpenAI o4-mini とほぼ同等の結果を達成します。gpt-oss-20b モデルは、一般的なベンチマークで OpenAI o3‑mini と同様の結果を出し、わずか16 GBのメモリを搭載したエッジデバイスで実行でき、デバイス上のユースケース、ローカル推論、またはコストのかかるインフラストラクチャなしに、迅速な反復処理をこなします。どちらのモデルも、ツール使用、few-shot の関数呼び出し、CoT 推論(Tau-Bench エージェント評価スイートの結果に見られる)、HealthBench(OpenAI o1 や GPT‑4o などの独自モデルよりも優れたパフォーマンスを発揮)でも優れたパフォーマンスを発揮します。"(https://openai.com/ja-JP/index/introducing-gpt-oss/)

だそうですよ。

医療田:

機械屋さん、、

だめだよ。そんな文章、誰も2分で読んでくれないよ?

機械屋:

ですよね。。すみません。

わかりやすく言うとこんな感じです:

・GPT-ossには軽量版と本格版があって

・軽量版の"GPT-oss-20B"は、だいたいo3-miniと同じくらい、上位機種のゲーミングノートPCでも動く。

・本格版の"GPT-oss-120B"は、o4-miniに近い、

 80GBクラスGPU1枚(数百万円)という追加設備で動作可能。

―というところです。

軽量版の20GBでも、2024年2月にリリースされた、o1軽量版モデルくらいの性能があるということですから、日常業務の大部分は網羅できそうですよね。

医療田:

へえ!本格版はともかく、軽量版はパソコンでも動いちゃうんだ!?

機械屋:

そのようです、

といっても、60万円以上する、GPU付きの上位モデルですけどね。


3. どのような準備が必要か、可能性は何があるか?

医療田:

あ、そうか。

うーん、1台60-80万のPCかあ。

今、病院の予算、厳しいからなあ、、

今すぐみんな一斉に使ってみる!

というのは難しそうだね。

機械屋:

でも、工夫の余地はありますよ。

例えば、サーバー集中方式。

病院に1台サーバーを置いて、各端末はWebブラウザ経由でアクセスする。

この場合、複数人が同時にAIを使用できます。

ただその場合、PCのスペックはさらに本格的なものを用意する必要がありますが。

医療田:

なるほどねー。

======

●2分で読める「生成AIのいま」シリーズ。バックナンバはブログからどうぞ!

https://www.youichimachida-ai.com/blog

Previous
Previous

アパグループ代表取締役専務元谷拓さまを囲む交流会を主催させていただきました。

Next
Next

2分で読める生成AIのいまVOl.24 - 文章作成だけではない?!「GPTによるタンパク質”合成”」の報告を読み解く -