ブログ

Blog

クラウドAIのデータは本当に安全か? — ローカルLLMという選択肢

ローカルLLMという選択肢

「ChatGPTに社内データを入れていませんか?」この問いは、いま多くの企業にとって現実的なリスク管理の出発点です。契約書、設計図、障害ログ、人事情報を便利だからとクラウドAIに貼り付けると、その情報は少なくとも自社管理外の基盤へ送られます。安全性は"AIの賢さ"ではなく、"どの契約で、どんな設定で、どこにデータが残るか"で決まります。だから今、ローカルLLMが再評価されています。(OpenAI Help Center、Google Gemini Apps Help、Anthropic Privacy Center、2026年4月確認)

なぜ今、「クラウドAIの安全性」を見直すのか

事業者 個人向けの原則 法人向けの原則 管理者が見るべき点
OpenAI ChatGPTなどの個人向けサービスは、設定次第で入力内容がモデル改善に使われ得る ChatGPT Business / Enterprise / APIは既定で学習に使わない 無料・個人契約と法人契約は前提が異なる
Google shield表示のないGeminiは、人手レビューや改善利用の可能性がある Workspace / 仕事・学校アカウントのGemini Appsは、人手レビューなし・生成AI学習にも使わない Workspace契約か、shield表示があるかを確認
Anthropic Claude Free / Pro / Maxは設定により学習利用。許可時は保持5年、非許可時は30日 Team / Enterprise / APIは商用データを学習利用しない(開発パートナープログラム参加時を除く) Consumer TermsではなくCommercial Termsで見極める

重要なのは、同じベンダー名でも「個人向け」と「法人向け」でデータの扱いが大きく違うことです。安全かどうかは製品名ではなく、契約形態、管理者設定、保持方針で判断すべきです。さらに、「学習に使わない」は「送信されない」や「一切保存されない」と同義ではありません。たとえばOpenAI APIは既定で最大30日の監視ログ保持があり、条件を満たす顧客向けにZero Data Retention等が提供されています。CISOが見るべき「学習有無」だけでなく、「保存・監査・管理」です。(OpenAI Help Center / Enterprise Privacy / API Data Controls、Google Workspace Specific Terms、Google Gemini Apps Help、Anthropic Privacy Center、2026年4月確認)

実際の事故も起きています。2023年にはSamsung Electronicsの半導体部門で、従業員が機密コードや会議内容をChatGPTに入力した事例が複数報じられ、その後に生成AI利用を制限・禁止する動きにつながりました。ここで重要なのは、漏えいがハッキングではなく、善意の業務効率化から起きたことです。つまり最大の穴は"外部攻撃"ではなく、"現場の無自覚な入力"になり得ます。(Bloomberg、CIO Dive、2023)

法令面でも、「便利だから使う」だけでは済みません。個人情報保護委員会は、個人データを含むプロンプトを入力する場合、利用目的の範囲内かを確認し、本人同意なく応答生成以外の目的で扱われるなら法違反となる可能性があるため、提供者が機械学習に利用しないこと等を確認すべきだとしています。一般利用者向けにも、入力した個人情報が学習に使われ、正確または不正確な形で将来出力されるリスクへの注意を促しています。EUのAI Actも、GPAIモデルに関する義務は2025年8月2日から、主要規定の多くは2026年8月2日から適用です。EU事業や欧州顧客を持つ企業にとって、AIガバナンスはすでに"今の課題"です。(個人情報保護委員会、欧州委員会、2026年4月確認)

クラウドAIとローカルLLM、何が違うのか

観点 クラウドAI ローカルLLM
データ統制 社外基盤へ送信。契約と設定で抑制は可能 社内端末・社内サーバ内で完結させやすい
初期費用 小さい GPU/サーバ調達が必要
継続費用 席課金・API課金が続く 電力・保守中心。長期で平準化しやすい
性能 最先端モデルをすぐ使える 用途を絞れば十分。大型モデルは高価
運用負荷 小さい パッチ、監視、更新、権限設計が必要

ここでいうローカルLLMとは、推論を自社の管理下にあるPC、ワークステーション、オンプレサーバで動かす考え方です。最大の利点は、プロンプトや社内文書を外部クラウドへ送らずに済む点にあります。一方で、ローカルに置けば自動的に安全になるわけではありません。GPUサーバのパッチ適用、アクセス制御、監査ログ、モデル更新、持ち込み文書の権限分離まで設計して初めて、クラウドより高い統制が実現します。

2026年4月時点の主要モデル候補

系統 主な候補 規模の目安 向く用途
Llama 3系 Llama 3.2(1B/3B)、Llama 3.3 70B、Llama 3.2 Vision(11B/90B) 1B〜90B、128k文脈 エッジから高性能サーバまで幅広い
Mistral系 Ministral 3(3B/8B/14B)、Mistral Large 3 3B〜14B、Large 3は41B active / 675B total 小型高効率から高性能まで。ローカル実装しやすい
Phi-3系 Phi-3.5-mini、Phi-3.5-MoE 3.8B、42B total / 6.6B active、128K 小型・多言語・RAG前提の業務AI
Gemma系 Gemma 3(1B/4B/12B/27B) 1B〜27B、マルチモーダル、128k 文書要約、社内FAQ、画像入力を含む業務補助

モデル選定は、単に"最大パラメータ数"を選べばよいわけではありません。社内FAQ、要約、分類、文書検索連携なら3B〜14B級でも十分なケースが多く、議事録整理や日本語要約の品質を重視するなら12B〜27B級が実務的です。コード支援や複雑な推論をローカルで狙うなら、70B級やMoE系と、それを支える高価なGPU構成が現実的な選択になります。(Meta / Mistral AI / Microsoft / Google Developers Blog、2026年4月確認)

コストの現実:数字を正すとどう見えるか

まず数字を正します。2026年4月時点の公表価格では、Google Workspace Businessの年契約は1人あたり月800円、1,600円、2,500円(税別)です。StarterはGmailとGeminiアプリ中心、Standard以上は複数アプリでAI支援が広がります。ChatGPT Businessは年契約で25ドル/席/月、Claude Team Standardは年契約で20ドル/席/月(5席以上)です。したがって10人利用なら、Googleは年9.6万〜30万円、ChatGPT Businessは3,000ドル/年、Claude Teamは2,400ドル/年が基準線になります。(Google Workspace Help、OpenAI Help Center、Claude Help Center、2026年4月確認)

一方、ローカル側の「50〜300万円」という表現も、いまの市場をそのまま表しているわけではありません。2026年4月時点の公開価格では、RTX 5070 Ti搭載の完成品PCが約46.5万〜51.5万円、RTX 5090搭載PCが約100万円です。さらに、NVIDIA DGX Spark 2台接続セットは約186.6万円、セットアップ込みのローカルRAGスターターBOXは約366.3万円でした。つまり現実のレンジは、入門機で約46万円台から、統合アプライアンスでは300万円超まで広がっています。(マウスコンピューター、ark、GDEP、2026年4月確認)

※OpenAI / Anthropicの円換算は便宜上1ドル=150円で概算しています。性能が同等ではないため、以下は総保有コストの目安です。

区分 価格の目安 見方
Google Workspace Business(10人・年契約) 9.6万〜30万円/年(税別) 低初期費用。AI機能の範囲はプラン差あり
ChatGPT Business(10人・年契約) 3,000ドル/年(約45万円) 法人向け制御があるが、席課金は継続
Claude Team Standard(10人・年契約) 2,400ドル/年(約36万円) 5席以上。商用データは学習に使わない
ローカル入門 46.5万〜51.5万円初期 8B〜14B級の小〜中規模運用向け
ローカル実用高性能 約100万円初期 より大きいモデルや同時利用に余裕
ローカル統合型 186.6万〜366.3万円超初期 社内文書検索やセットアップ込みで導入しやすいが高価

単純計算では、10人でGoogle Workspace Business Standard級なら50万円級ローカルは約2.6年、ChatGPT Business 10席相当なら100万円級ローカルは約2.2年で初期費用に近づきます。DGX Spark 2台セットは約4年、統合アプライアンスは8年前後が目安です。電力、保守、バックアップ、監視を加味すると、「3〜5年でローカル有利」は、10人前後が継続利用し、8B〜27B級中心で運用を内製できる場合に成立しやすい、と見るのが妥当です。逆に、70B級や高可用構成を求めると回収期間はさらに伸びます。(各社公表価格からの単純計算)

導入パターンは3つで考える

エッジ:現場端末や閉域網内の小型PCで、小型モデルを動かす方式です。オフライン性、低遅延、持ち出し制御が強みです。

オンプレミス:本社やデータセンターに共用GPUサーバを置き、社内文書検索、議事録生成、設計レビュー支援を集約します。統制しやすい反面、運用責任は最も重くなります。

ハイブリッド:公開情報の調査や一般的な文章作成はクラウド、設計図、契約書、人事・顧客情報はローカルへ振り分ける方式です。実務ではこの形が最も失敗しにくく、データ分類ルールと相性が良い設計です。

まとめ

結論は明快です。機密性が高い用途――未公開設計、ソースコード、契約、人事、顧客情報――は、ローカルLLMまたは少なくとも閉域・オンプレ運用が第一候補です。汎用的な要約、企画のたたき台、公開情報ベースの調査は、法人契約のクラウドAIが速くて安い。迷ったら、データ分類で使い分けるハイブリッドが最適解です。AI導入で失敗しない企業は、「どのモデルが賢いか」より先に、「どのデータを外に出さないか」を決めています。

ご相談ください

Link T&Bでは、ローカルLLM環境の構築・運用、社内文書検索との連携、ポリシー設計まで支援しています。機密情報を扱うAI活用を安全に進めたい方は、サービスページをご覧ください。個別相談はお問い合わせから受け付けています。

関連記事

MFAの仕組みと対応のポイント中小企業セキュリティ

:
← ブログ一覧に戻る