「ChatGPT に社外秘の情報を入力するのが怖い」「プライバシーを守りながら AI を使いたい」——そんな声に応えるのが、PC 上でオープンソースの AI モデルをローカル実行できる Ollama(オラマ) です。
Ollama の大きな魅力は、入力したテキストがクラウドに送られず、自分の PC だけで AI 推論が完結するという点です。しかし、「ローカルだから安全」は大きな誤解です。
2025年初頭、中国の国家脆弱性データベース(CNVD)に CNVD-2025-04094 として登録されたセキュリティ問題が話題になりました。Ollama はデフォルト設定のままだと、同じネットワーク上の誰でもアクセスできる状態でポートを開放してしまうことがあります。実際にスキャンツールで無防備な Ollama インスタンスが大量に発見されているという報告もあります。
この記事では、Windows PC に Ollama をインストールした後に必ず確認・設定すべきセキュリティ対策を、初心者でも迷わないよう一つひとつ丁寧に解説します。「何が危なくて」「どう直せばいいか」を実際のコマンドや画面手順と一緒に説明していきます。
📌 この記事で学べること
・Ollama のデフォルト設定に潜むセキュリティリスクの全体像
・最重要設定:ループバックアドレス(127.0.0.1)への制限方法
・Windows ファイアウォールで Ollama ポートを保護する手順
・環境変数・モデルファイル・会話ログの管理方法
・外部流出が起きていないかを確認するチェック方法
・会社・業務利用時に追加で必要な対策
⚠️ まず知っておくべき:Ollama の「デフォルトの危険」
Ollama は非常に便利なツールですが、インストール直後の状態にはいくつかの重要なセキュリティ上の懸念があります。順番に整理します。
危険① ポート 11434 が外部に開放される可能性がある
Ollama は起動すると、デフォルトで TCP ポート 11434 でサーバーとして動作します。問題は、設定によってはこのポートが 0.0.0.0(すべてのネットワークインターフェース)にバインドされることです。
もし自宅の Wi-Fi に複数のデバイスがつながっていたり、職場のネットワークにいたりする場合、同じネットワーク上の他のデバイスから Ollama の API に自由にアクセスできてしまいます。
Ollama の API にはデフォルトで認証機能がありません。つまり、誰でも自由にモデルを使ったり、あなたの PC で実行されているモデルを調べたり、場合によってはモデルファイルを取得したりできてしまう状態になります。
危険② 認証・アクセス制御が存在しない
Ollama の公式ドキュメントには明記されていますが、Ollama にはデフォルトで認証機能もアクセス制御機能もありません。 ポートへの接続さえできれば、誰でも API を叩けます。
危険③ 会話ログが平文でディスクに保存されることがある
チャットの内容は設定・使い方によっては PC のローカルに平文(暗号化なし)で保存されます。他のユーザーが PC にアクセスできる環境では、会話内容が見られてしまうリスクがあります。
危険④ 自動アップデートの仕組みに注意
Ollama は起動時に公式サーバーへの接続を行い、アップデート確認をします。この通信自体は悪意のあるものではありませんが、企業ネットワーク環境では意図しない外部通信として問題になることがあります。
| リスク | デフォルト状態 | 危険度 |
|---|---|---|
| ポートの外部公開 | 状況により 0.0.0.0 にバインド | 🔴 高 |
| 認証なし API アクセス | 認証機能なし | 🔴 高 |
| 会話ログの平文保存 | 暗号化なし | 🟡 中 |
| 自動更新の外部通信 | 有効 | 🟡 中 |
| モデルファイルの平文保存 | 暗号化なし | 🟢 低〜中 |
設定①:最重要!ループバックアドレスへの制限
すべての対策の中で最も重要なのが、Ollama がリッスンするアドレスを 127.0.0.1(自分の PC のみ)に制限することです。これにより、外部ネットワークからのアクセスを完全に遮断できます。
127.0.0.1 は「ループバックアドレス」と呼ばれる特殊な IP アドレスで、自分自身の PC からしかアクセスできません。ネットワーク上の他のデバイスからは絶対に届きません。

これだけでもやろう
手順:Windows の環境変数で設定する
Ollama は OLLAMA_HOST という環境変数を読み込んで、どのアドレスでリッスンするかを決めます。これを 127.0.0.1 に設定します。
方法A:Windows の GUI(システム環境変数)で設定する(推奨・永続的)
- キーボードの Windowsキー + R を押して「ファイル名を指定して実行」を開く
sysdm.cplと入力して Enter を押す- 「詳細設定」タブを開き、一番下の「環境変数」ボタンをクリック
- 「システム環境変数」の枠の下にある「新規」ボタンをクリック
- 以下の通り入力して OK
変数名:OLLAMA_HOST
変数値:127.0.0.1
- OK をすべて押して閉じ、PC を再起動(または Ollama サービスを再起動)
方法B:PowerShell で設定する(管理者として実行)
# システム全体に恒久的に設定(管理者 PowerShell が必要)
[System.Environment]::SetEnvironmentVariable("OLLAMA_HOST", "127.0.0.1", "Machine")
# 設定を確認
[System.Environment]::GetEnvironmentVariable("OLLAMA_HOST", "Machine")
設定後の確認方法
Ollama を再起動したあと、PowerShell または コマンドプロンプトで次のコマンドを実行します。
# Ollama がどのアドレスでリッスンしているか確認
netstat -ano | findstr "11434"
# 安全な状態の表示例(127.0.0.1 のみ)
TCP 127.0.0.1:11434 0.0.0.0:0 LISTENING 12345
# 危険な状態の表示例(0.0.0.0 = 全インターフェースに公開中)
TCP 0.0.0.0:11434 0.0.0.0:0 LISTENING 12345
✅ 確認ポイントnetstat の結果に 127.0.0.1:11434 と表示されていれば安全です。0.0.0.0:11434 や [::]:11434 と表示されている場合は、まだ外部に公開されているため設定を見直してください。
🔥 設定②:Windows ファイアウォールで二重防御する
環境変数での制限に加え、Windows ファイアウォールでポート 11434 をブロックすることで、二重の防御を実現します。万が一 OLLAMA_HOST の設定が無効になっても、ファイアウォールが守ってくれます。
手順:Windows Defender ファイアウォールで受信ルールを追加
方法A:GUI(Windows ファイアウォールの管理画面)で設定する
- Windowsキー + R で「ファイル名を指定して実行」を開き、
wf.mscと入力して Enter - 左側の「受信の規則」をクリック
- 右側の「新しい規則…」をクリック
- 規則の種類で「ポート」を選択して「次へ」
- 「TCP」を選択し、「特定のローカル ポート」に
11434と入力して「次へ」 - 「接続をブロックする」を選択して「次へ」
- 「ドメイン」「プライベート」「パブリック」のすべてにチェックを入れて「次へ」
- 名前に「Ollama Port Block」などわかりやすい名前を入力して「完了」
方法B:PowerShell で設定する(管理者として実行・一発設定)
# 外部からの Ollama ポートへのアクセスをブロック(管理者 PowerShell)
New-NetFirewallRule `
-DisplayName "Ollama Port 11434 Block" `
-Direction Inbound `
-Protocol TCP `
-LocalPort 11434 `
-Action Block `
-Profile Any
# 設定を確認
Get-NetFirewallRule -DisplayName "Ollama Port 11434 Block"
💡 ローカルアプリからのアクセスは問題ない
ファイアウォールの受信ブロックは「外から入ってくる接続」を遮断します。自分の PC 上で動いている Open WebUI や他のアプリから localhost:11434 で Ollama を使う場合は、これはローカルの通信なので影響を受けません。安心して設定してください。
📁 設定③:モデルファイルと保存場所を管理する
モデルファイルはどこに保存されるか
Ollama でダウンロードした AI モデル(Llama・Gemma・Mistral など)のファイルは、デフォルトでは次の場所に保存されます。
# Windows のデフォルトモデル保存先
C:\Users\(ユーザー名)\.ollama\models\
# PowerShell で確認
dir "$env:USERPROFILE\.ollama\models"
保存先を変更する(推奨)
モデルファイルは数 GB〜数十 GB と大きく、システムドライブ(C ドライブ)の容量を圧迫します。セキュリティ的にも、専用フォルダに分けて管理するほうが整理しやすく、アクセス権限の設定もしやすくなります。
# 例:D ドライブの専用フォルダに変更する場合
# システム環境変数に OLLAMA_MODELS を追加
[System.Environment]::SetEnvironmentVariable("OLLAMA_MODELS", "D:\OllamaModels", "Machine")
# または GUI での設定方法:
# 変数名:OLLAMA_MODELS
# 変数値:D:\OllamaModels(任意のパスでOK)
フォルダのアクセス権限を制限する
モデルフォルダを自分のユーザーアカウントのみが読み書きできるように制限します。
# PowerShell でアクセス権限を確認
Get-Acl "C:\Users\$env:USERNAME\.ollama" | Format-List
# エクスプローラーで設定する場合:
# .ollama フォルダを右クリック → プロパティ → セキュリティタブ
# 「Everyone」や「Users」グループが書き込み権限を持っていないか確認
📝 設定④:会話ログと履歴のプライバシー管理
Ollama 自体の会話ログはどこにあるか
Ollama 本体はデフォルトでは会話の内容をログファイルに永続保存しません。ただし、フロントエンドとして使う UI ツールによって動作が異なります。
| ツール | 会話ログの保存場所 | 対策 |
|---|---|---|
| Open WebUI | SQLite DB(ローカル)または設定次第でクラウド | クラウド同期設定をオフに |
| Ollama CLI | 保存されない(セッション内のみ) | 対策不要 |
| LM Studio | ローカルの JSON ファイル | 定期的に削除・暗号化 |
| Msty / Anything LLM | ローカル DB(設定による) | データフォルダの確認が必要 |
Ollama のサービスログを確認・管理する
# Ollama のサービスログを確認(Windows イベントビューアー経由)
# または PowerShell で
Get-EventLog -LogName Application -Source "Ollama" -Newest 50
# Ollama のログファイルの場所
# %LOCALAPPDATA%\Ollama\ollama.log
$logPath = "$env:LOCALAPPDATA\Ollama\ollama.log"
Get-Content $logPath -Tail 50
# ログファイルをクリア(必要な場合)
Clear-Content $logPath
🌐 設定⑤:Ollama の外部通信を制御する
Ollama が行う外部通信の種類
Ollama 本体が行う外部通信は主に次の3種類です。
- モデルのダウンロード:
ollama pullコマンド実行時にregistry.ollama.aiに接続 - バージョンアップデートの確認:起動時または定期的に Ollama の公式サーバーへ接続
- モデルのプッシュ:
ollama pushコマンド実行時(意図しない場合は実行しない)
会話の内容・入力したテキスト・個人情報などは Ollama 本体からは外部に送信されません。ただし、接続しているフロントエンドや拡張機能が外部に送信していないかは別途確認が必要です。
アップデート確認の無効化(オプション)
# アップデート確認を無効化する環境変数
# 変数名:OLLAMA_NOPRUNE → モデルの自動整理を無効化
# 変数名:OLLAMA_ORIGINS → CORSの許可オリジンを制限
# アップデートチェックを無効化(環境変数で設定)
[System.Environment]::SetEnvironmentVariable("OLLAMA_NOPRUNE", "1", "Machine")
Wireshark で通信内容を確認する
Ollama が本当に会話内容を外部送信していないかを自分で確認したい場合、Wireshark(無料の通信解析ツール)を使って確認できます。
【Wireshark での確認手順】
1. Wireshark を起動し、メインのネットワークインターフェースを選択してキャプチャ開始
2. Ollama を起動し、モデルと会話をいくつか行う
3. Wireshark のフィルタバーに以下を入力してフィルタリング:
ip.dst != 127.0.0.1 and ollama
または Ollama のプロセス ID でフィルタ:
tcp.port == 11434 and ip.dst != 127.0.0.1
4. 会話中に外部 IP への通信が発生していないか確認
5. registry.ollama.ai へのアクセスはモデル操作時のみで正常
【確認すべき異常パターン】
・会話中に見知らぬ外部 IP への接続が発生している
・443 番ポート(HTTPS)で大量のデータ送信が行われている
・google.com / microsoft.com 以外への継続的な通信がある
🔍 チェック方法:外部流出が起きていないか確認する
設定が正しく機能しているかを定期的に確認するための、具体的なチェック手順をまとめます。
チェック①:ポートのバインド状態を確認する
# PowerShell または コマンドプロンプトで実行
netstat -ano | findstr "11434"
# 期待する結果(安全)
TCP 127.0.0.1:11434 0.0.0.0:0 LISTENING ×××
# 要対応の結果(危険)
TCP 0.0.0.0:11434 0.0.0.0:0 LISTENING ×××
TCP 192.168.x.x:11434 0.0.0.0:0 LISTENING ×××
チェック②:外部から本当にアクセスできないか確認する
スマートフォンや別の PC(同じ Wi-Fi に接続)から、ブラウザで次の URL にアクセスしてみます。
# Windows PC の IP アドレスを確認
ipconfig | findstr "IPv4"
# 例:192.168.1.100 と表示された場合
# 別デバイスのブラウザで以下にアクセス
http://192.168.1.100:11434/
# 期待する結果(安全)
→ 接続できない・タイムアウトする
# 要対応の結果(危険)
→ "Ollama is running" と表示される
チェック③:ファイアウォールルールを確認する
# 設定したファイアウォールルールが有効か確認
Get-NetFirewallRule -DisplayName "Ollama Port 11434 Block" | Select-Object DisplayName, Enabled, Action
# 期待する結果
DisplayName : Ollama Port 11434 Block
Enabled : True
Action : Block
チェック④:環境変数が正しく設定されているか確認する
# システム環境変数の確認
[System.Environment]::GetEnvironmentVariable("OLLAMA_HOST", "Machine")
# 期待する結果:127.0.0.1
[System.Environment]::GetEnvironmentVariable("OLLAMA_MODELS", "Machine")
# 期待する結果:設定したパス(例:D:\OllamaModels)
チェック⑤:Ollama のバージョンを最新に保つ
# 現在のバージョン確認
ollama --version
# Ollama の更新は公式サイト https://ollama.com からインストーラーを再ダウンロードして上書きインストール
# または winget を使用
winget upgrade Ollama.Ollama
🏢 業務・企業利用時の追加対策
個人利用ではなく、業務や企業のネットワーク環境で Ollama を使う場合は、さらに厳重な対策が必要です。
対策①:Windows のユーザーアカウントを分ける
Ollama 専用の Windows ユーザーアカウントを作成し、最小権限で運用することが推奨されます。これにより、仮に Ollama 経由でマルウェアが侵入しても、他のファイルへのアクセスを最小限に抑えられます。
対策②:BitLocker でドライブ全体を暗号化する
Windows Pro/Enterprise では BitLocker を使って、モデルファイルや会話ログが保存されているドライブ全体を暗号化できます。PC が物理的に盗まれた場合でも、ファイルの内容を読み取れなくなります。
【BitLocker の有効化手順】
1. エクスプローラーで暗号化したいドライブを右クリック
2. 「BitLocker を有効にする」を選択
3. 回復キーの保存方法を選んでウィザードを進める
4. 暗号化が完了するまで待つ(数時間かかる場合あり)
対策③:Open WebUI を使う場合の認証設定
Ollama のフロントエンドとして人気の Open WebUI を使う場合は、必ず管理者アカウントと一般ユーザーアカウントを分け、登録制(管理者承認制)に設定します。
# Open WebUI の環境変数でサインアップを無効化(管理者のみ追加可能に) # docker-compose.yml または起動時のオプションに追加 ENABLE_SIGNUP=False # または管理パネルの Settings → Users → Default User Role を「pending」に設定 # → 新規登録ユーザーは管理者が承認するまで使用不可になる
対策④:ネットワークセグメンテーション
企業ネットワークでは、Ollama を稼働させる PC を専用のネットワークセグメント(VLAN)に隔離し、他のセグメントとの通信を制限することが推奨されます。これにより、万が一 Ollama を経由した侵害が起きても、被害が他のシステムに広がりにくくなります。
📋 セキュリティ設定チェックリスト
設定が完了したら、以下のチェックリストで確認してください。
| チェック項目 | 確認方法 | 状態 |
|---|---|---|
| OLLAMA_HOST=127.0.0.1 に設定済み | 環境変数を PowerShell で確認 | ☐ |
| netstat で 127.0.0.1:11434 を確認 | netstat コマンドで確認 | ☐ |
| ファイアウォールルールを追加済み | Get-NetFirewallRule で確認 | ☐ |
| 外部デバイスからアクセス不可を確認 | 別デバイスのブラウザでアクセス試行 | ☐ |
| Ollama を最新バージョンに更新済み | ollama –version で確認 | ☐ |
| モデルフォルダのアクセス権限を確認 | フォルダのプロパティ→セキュリティで確認 | ☐ |
| フロントエンドの外部通信を確認 | Wireshark でモニタリング | ☐ |
| (業務用)BitLocker 有効化済み | エクスプローラーで鍵アイコンを確認 | ☐ |
🎯 まとめ
Ollama はローカルで AI を動かすという点で、クラウドサービスに比べてプライバシーの面で大きな優位性を持っています。しかし「ローカル=安全」ではなく、正しく設定して初めて安全になります。
最低限やるべきことを3つに絞るなら、次のとおりです。
✅ 最優先でやること3つ
① OLLAMA_HOST=127.0.0.1 を環境変数に設定する
→ 外部ネットワークからのアクセスを完全遮断。これだけで主要リスクの 80% を解消できます。
② Windows ファイアウォールでポート 11434 をブロックする
→ 二重の防御。設定が崩れても守ってくれます。
③ Ollama を最新バージョンに保つ
→ セキュリティ修正は定期的にリリースされます。定期的な更新を習慣にしましょう。
Ollama は正しく設定すれば、個人情報・機密情報を外部に漏らさず AI を使える強力なプライバシーツールになります。この記事の設定を参考に、安全な AI 環境を整えていただければ幸いです。
🔗 参考リソース
・Ollama 公式 GitHub:https://github.com/ollama/ollama
・Ollama セキュリティポリシー:https://github.com/ollama/ollama/security
・CNVD-2025-04094 脆弱性情報(NSFOCUS):https://nsfocusglobal.com/
・Open WebUI 公式ドキュメント:https://docs.openwebui.com/
本記事は 2026年3月時点の情報に基づいています。Ollama は活発に開発が続いており、設定方法や仕様は今後変更される可能性があります。最新情報は公式 GitHub をご確認ください。

コメント