「社員がChatGPTに社内資料を貼り付けてるらしい。」
こういう相談が増えています。
ChatGPTもClaudeも、使えば業務は確実に速くなる。でも企業にとっての問題は「入力した情報がどこに行くのか」。クラウドに送信されたデータがAIの学習に使われるのか。競合に漏れないのか。法的に問題ないのか。
不安だから禁止する。でも禁止すると生産性が落ちる。このジレンマに多くの企業が陥っています。
ローカルLLMという第三の選択肢
「使わせない」か「リスクを受け入れて使う」か。実はもう一つ選択肢があります。
ローカルLLM。つまり、AIをクラウドではなく自社のPC内で動かす。
最近のオープンソースAIモデルは驚くほど賢くなっています。Meta社のLlama、GoogleのGemma、MicrosoftのPhi。これらを自社のPCにインストールすれば、インターネットに接続しなくてもAIが使えます。
データはPCの中だけ。クラウドに一切送信しない。月額API費用もゼロ。
具体的にどういう仕組みか
難しくありません。
GPU搭載のPCに、LM StudioやOllamaというソフトをインストールする。その中にAIモデルを入れる。ブラウザからチャット画面を開いて、ChatGPTと同じように使える。
違いは、すべてがPC内で完結していること。データが外に出る経路そのものが存在しない。
さらに進めれば、社内の資料やマニュアルをAIに読ませて、「うちの会社のことを知っているAI」にすることもできる。新入社員が「この手続きどうやるの?」と聞けば、社内マニュアルに基づいた正確な回答が返ってくる。
どれくらいのスペックが必要か
高価なサーバーは不要です。
軽量モデルなら、Mac Mini(20万円前後)で快適に動きます。中型モデルでも、GPU搭載PC(30〜50万円)で十分。大型モデルを全社で使うなら、ワークステーションクラス(100万円前後)。
ChatGPTの月額費用が社員1人あたり月3,000円だとすると、50人の会社で年間180万円。ローカルLLMなら初期投資だけで済み、長期的にはコストが下がります。
何ができて、何ができないか
正直に言います。
できること: メール下書き、報告書ドラフト、社内FAQ対応、資料の要約、翻訳、アイデア出し、議事録整理。日常業務の8割はカバーできます。
苦手なこと: 最新情報の検索(オフラインだから)、画像生成(別のモデルが必要)、超高度な推論(最新のGPT-4oには劣る場面もある)。
でも企業が必要としているのは、ほとんどが「できること」の範囲です。
まずは相談してください
「うちの会社でも使えるのか」「どのモデルが合うのか」「コストはどれくらいか」。
この判断を、AIの技術とビジネスの両方がわかる人間が一緒に考えます。それがブレインレンタルです。
現在、ローカルLLMインストール済みPCの販売サービス「ちゃちゃっとAI」を準備中です。