2分で読める生成AIのいま Vol.28「データセキュリティから見る生成AIのタイプ」
-仕事にプライベートに、生成AIを“どこまで安全に使える?”-
ひとくちに「生成AI」といっても、「チャット型AI」「API」「企業提供サービス」「オンプレAI」などタイプはさまざま。そしてタイプによってデータの扱い方や安全性も大きく異なります。
今回のエピソードでは、いつもの医療田さんと機械屋さんの会話を通じて、“どのAIならどこまで安心して使えるのか” を整理してみましょう。
======
機械屋:
こんにちは、医療田さん。
医療田:
あ、、こんにちは、機械屋さん。
機械屋:
なんか、ちょっと元気ないですね。
医療田:
うん。
このまえ、アプリのDIYをした、って話、したでしょ?
機械屋:
ええ。AIをAPIを通じて活用できるようなアプリでしたよね。(https://www.youichimachida-ai.com/blog/2ai-vol27-aidiy-)
医療田:
あれをね、病院の端末で使わせてもらえないかなって思って、担当に聞いてみたんだけど、
セキュリティの観点から、端末にインストールするのは難しいです、
って言われちゃったのよ。]
機械屋:
そうでしたか。。
医療田:
それはしょうがないんだけど、、
一口に"生成AI"って言っても、いろんなタイプがあるじゃない?
たとえば、ChatGPTとGPTのAPIだって、プライバシーポリシーが、違うでしょ?
「私の作ったアプリは、どんな範囲だったら使ってもいいのか」とか
逆に
「どんなAIだったら、病院みたいなところでも安心して使えるのか」とか、
その辺、わかってなかったなあ、って。
機械屋:
おっしゃる通りですね。とても重要なことだと思いますよ。
● 生成AIの4タイプ
機械屋:いったん生成AIのタイプを、「データの流れ」と「セキュリティ制御のしやすさ」の観点から整理してみましょうか。
1.チャット型AI
まず、みんながよく使う“チャット型AI”
ChatGPTのほか、Claudeなんかもこれに入りますね。生成AIをすぐに使える、いってみれば生成AIの"おしゃべりアプリ"です。
このチャット型AIは
・入力情報は学習に使用されうる
・"学習に使用しない"設定で使用することはできますが、その場合も入力情報が一定期間、サービス側で保存される
など、セキュリティレベルは高くないため、患者情報などの医療情報を、チャット型AIで扱うことはできません。
医療田:
そうだよね。
機械屋:
例外として、"ChatGPT Enterprise"など、組織全体で契約するタイプのチャット型AIは、その契約内容によっては使用することができる場合も、、ないわけではありませんが、その辺は各病院など組織とサービス側との契約によりますし、何より該当部署がそれを許可している場合に限られます。
2.API
機械屋:
次にAPI、ですね。
おさらいしておくと、APIは"アプリケーション・プログラミング・インターフェース(Application Programming Interface)"の略で、ソフトウェアやプログラム同士が連携するための「窓口」や「接点」です。
生成AIでは、たとえばChatGPTはGPTという、生成AIの基盤モデル(生成AIの基盤となる“大型言語モデル(Large Language Model)”のこと)をチャット形式で使えるようにしたもの、ということができますが、このGPT、という生成AI基盤モデルそのものを使うための方法の一つがAPI、というものになります。
医療田:
APIって、キー(key)と呼ばれるものを通じて、GPTなんかのモデルを呼び出して使うんだよね。
これを、、、
from openai import OpenAI
client = OpenAI(api_key="ここにAPIキーを張り付け")
みたいな感じで、呼び出して使うんだよね?
機械屋:
さすが、一度自分で作ってみた経験が生かされていますね!
医療田:
ふふ、そうでしょ?
APIは“AIを直接呼び出す電話回線”、みたいなところかな。
機械屋:
おおー、わかりやすい。まさにその通りだと思います。
そしてですね、このAPIも、どのような環境で呼び出すかによって、大きく2つに分かれるんです。
医療田:
へっ?そうなの?
機械屋:
ひとつは、"OpenAIなどとの直接契約型"です。
これは先日、医療田さんがトライされたタイプに当たります。医療田さん、GPTを使うためのAPI keyって、どうやって取得して、使用しましたか?
医療田:
。。。GPTを提供しているOpenAIのサイトに行って、そこでAPI keyを発行してもらったよ。
そういうやり方しか知らなかったけど。。
機械屋:
実はそれ以外に、MicrosoftのAzureやAmazon Web Service(AWS)、GoogleのGoogle Cloudなどが提供しているインターネットのクラウドサービス内でAPIを使用する、というやり方もあるんです。
この場合、"APIの作動する環境も、クラウドによって管理されているため、セキュリティレベルのしっかりとした環境でAIを作動させることが可能なんです。
医療田:
へーっ!
機械屋:
APIを通じてやり取りされた内容は、基本、生成AIの学習対象になりませんが、
クラウドサービスの基盤上でやり取りすることによって
入力情報がAI提供側で保存されてしまうかどうか(医療でやり取りされるような個人情報はゼロ保存が理想ですよね)や、それ以外のセキュリティに関するもろもろの設定(ちょっとだけ紹介すると、送信先ドメインの設定や、通信内容の暗号化、双方向認証、クラウドサーバーの地域設定、など)の設定をカスタマイズできるので、セキュリティレベルを高くすることが可能なんです。
逆に、APIをOpenAIから取得する場合、入力情報のゼロ保存はOpenAIに申請する必要があり、それ以外のセキュリティ環境設定はすべて自分で設定しなければならず、これが非常に厄介なんですね。
医療田:
う、うーん、、と?
機械屋:
ああ、、
まとめるとですね、
APIの"ゼロ学習ポリシー"というのは、通常のチャット型AIと比較するとレベルは上がりますけど、それだけではセキュリティレベルでは十分とは言えないんです。
学習しない=安全 ではなく、保存・ネットワーク・監査・契約が整って初めて安全なんですね。
その点、Microsoft Azureなどのクラウドサービス基盤が提供するAPI利用環境は
データの保存先が選べる、データの取り扱い基準が最初から高い、などのアドバンテージがあるわけですね。
医療田:
なるほど、だから私が作ったプログラムを
「病院の端末でつかうのはちょっと、、」
って話に、なったのかなあ。
機械屋:
そういうことかなと思います。
3.企業提供の生成AIサービス
機械屋:
次に、企業や自治体が導入している 業務向けの生成AIサービス。
MicrosoftのCopilotとか、Ubieによる医療文書要約システムなどですね。
これらはさっきのAPIでの話とつながってきますが、
GPTやClaudeなどの基盤モデルと、これを実際に活用するためのプログラム、そしてそれを安全な環境で実行するための環境、
そういったものをすべてあらかじめ作り上げられたサービスを利用することになります。
したがって、セキュリティに関する設定もすべて、提供されるベンダーに依存することになりますね。
医療田:
企業が提供する"生成AIお任せパッケージ"というところだね。
機械屋:
その通りです。
4.閉域(オンプレミス環境)でのAI利用
機械屋:
最後に、病院の中や閉じたネットワークでAIを動かす オンプレ/閉域型 です。
医療田さん、以前お話したGPT-ossの話って覚えてます?
医療田:
覚えてるよー!(https://www.youichimachida-ai.com/blog/2ai-vol25-gpt-oss-)
機械屋:
チャット型AI、API、そして企業提供の生成AIサービスのいずれも、生成AIの基盤モデル(GPT、Claudeなど)を使用するために、インターネットを経由する必要がありますが、GPT-ossなどのオープンソースモデルを自施設内に設置したサーバー内で動かすことで、文字通り施設外に情報を出すことなく生成AIを利用することが可能です。
問題はAIを作動させるのに十分な計算資源を有する設備投資が必要であること、施設自身でモデル更新の管理や脆弱性対策
などを行う必要性があること、などが挙げられます。
さて、主な生成AIのタイプを見てきましたが、情報セキュリティの固さで言うと
閉域(オンプレミス)でのAI利用>企業提供のAIサービス、クラウド基盤内でのAPI>個別契約のAPI>チャット型AI
ということになりますね。これを
「どのタイプのAIなら、どこまで使えるのか?」
ということを整理するには、関連するガイドラインが定めるセキュリティレベルと照らし合わせる必要があります。
、、ただ、ここまででだいぶ長くなってしまいましたので、続きは次回にしましょうかね。
図に、それぞれのAIのタイプとそのセキュリティの特徴をまとめておきますので、参考にしてください。
医療田:
はーい。