Clicky

Windowsで源内風ローカルAIを完全無料構築する方法。OllamaとOpen WebUIでChatGPT風環境を作る

生成AI(エーアイ)
生成AI(エーアイ)
この記事は約8分で読めます。

※記事中に広告情報を含みます。

スキルを手に入れた時、人は強くなれる。
Youtubeでスキルアップを始める 電子書籍でスキルアップを始める

源内AIのOSS公開をきっかけに、「自分のPCにもAI環境を作りたい」と考える人が増えています。ただし、公式の源内AIをそのままローカルPCだけで完全再現するのは簡単ではありません。

そこで現実的なのが、OllamaとOpen WebUIを使って、ローカルPC上に「源内風のAI環境」を作る方法です。

この方法なら、OpenAI APIやClaude APIを使わず、ローカルPCだけでAIチャット環境を構築できます。

今回作る環境

今回作る構成は次のとおりです。

Windows PC

Ollama

ローカルLLM

Open WebUI

ブラウザで使えるAIチャット画面

より安定して運用したい場合は、Dockerを使ってOpen WebUIを起動します。Open WebUIの公式ドキュメントでも、Dockerは多くのユーザーに推奨される導入方法として案内されています。

必要なもの

最低限、次の環境を用意します。

Windows 10 22H2以降、またはWindows 11
インターネット接続
十分な空きストレージ
できれば16GB以上のメモリ
Ollama
Open WebUI
Docker DesktopまたはDocker Engine

OllamaのWindows版は、Windows 10 22H2以降を要件としています。NVIDIA GPUを使う場合は、NVIDIA 452.39以降のドライバーが必要です。

GPUがない場合でもCPUで動かせますが、回答速度は遅くなります。まずは軽量モデルで試すのが安全です。

手順1:Ollamaをインストールする

まずはOllamaをインストールします。Ollamaは、ローカルPCでAIモデルを動かすためのツールです。インストール後、コマンドからAIモデルを実行できます。

インストール後、PowerShellまたはターミナルを開き、次のコマンドでモデルを実行します。

ollama run gemma3

Ollama公式ドキュメントでも、モデルの実行例としてollama run gemma3が案内されています。

初回実行時は、モデルのダウンロードが行われます。モデルサイズによっては時間がかかります。

手順2:軽量モデルで動作確認する

まずは軽いモデルでテストします。

ollama run gemma3

または、別の軽量モデルを使う場合は次のように実行します。

ollama run llama3.2

起動後、ターミナル上で質問を入力します。

日本語で自己紹介文を作ってください。

返答が表示されれば、Ollamaは正常に動いています。

手順3:Open WebUIを導入する

OllamaだけでもAIは使えますが、ターミナル操作だけでは使いにくいです。

そこでOpen WebUIを使います。

Open WebUIを使うと、ブラウザ上でChatGPTのような画面を使えます。Open WebUI公式ドキュメントでは、Dockerで起動する場合、3000:8080でUIを公開し、http://localhost:3000にアクセスする手順が示されています。

手順4:DockerでOpen WebUIを起動する

Dockerが使える状態で、次のコマンドを実行します。

docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main

起動後、ブラウザで次を開きます。

http://localhost:3000

初回アクセス時にアカウントを作成します。

手順5:Ollama内蔵版のOpen WebUIを使う方法

OllamaとOpen WebUIをまとめて動かしたい場合は、Ollama同梱版のOpen WebUIイメージを使う方法もあります。

GPUありの場合は次のコマンドです。

docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

CPUのみの場合は次のコマンドです。

docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

Open WebUI公式ドキュメントでも、Open WebUIとOllamaを1つのコンテナでまとめて動かす構成が案内されています。

手順6:Docker Composeで管理する方法

毎回長いコマンドを打つのが面倒な場合は、Docker Composeで管理します。

作業用フォルダを作ります。

mkdir gennai-local
cd gennai-local

docker-compose.ymlを作成します。

services:
gennai-local:
image: ghcr.io/open-webui/open-webui:ollama
container_name: gennai-local
ports:
- "3000:8080"
volumes:
- ollama:/root/.ollama
- open-webui:/app/backend/data
restart: unless-stopped

volumes:
ollama:
open-webui:

起動します。

docker compose up -d

ブラウザで開きます。

http://localhost:3000

停止する場合は次のコマンドです。

docker compose down

再起動する場合は次のコマンドです。

docker compose up -d

手順7:モデルを追加する

Open WebUI上でモデルを選択できない場合は、Ollama側にモデルを追加します。

コンテナ名がgennai-localの場合は、次のコマンドでモデルを取得できます。

docker exec -it gennai-local ollama pull llama3.2

取得後、Open WebUIを再読み込みし、モデル一覧に表示されるか確認します。

おすすめの初期モデル

最初は軽いモデルから試すのがおすすめです。

llama3.2
gemma3
qwen系の軽量モデル

重いモデルをいきなり使うと、PCのメモリ不足や応答遅延が起きる可能性があります。

まずは「動くこと」を優先し、その後に精度の高いモデルへ変更する流れが安全です。

源内風に使うためのカスタム例

単にAIチャットを使うだけでは、源内風とは言えません。

業務用途に近づけるには、用途別のプロンプトを用意します。

たとえば、次のようなテンプレートです。

議事録要約用プロンプト
行政文書チェック用プロンプト
事業計画書作成用プロンプト
報告書作成用プロンプト
メール文面作成用プロンプト
FAQ回答用プロンプト
マニュアル検索用プロンプト

源内の特徴は、単なる雑談AIではなく「業務特化のAIアプリケーション」を使う点にあります。公式の源内Webも、AIアプリ管理や外部マイクロサービスとして構築したAIアプリの追加・実行機能を持つ構成です。

ローカル環境でも、この考え方を取り入れることで、かなり実用的なAI基盤に近づけることができます。

ローカル文書を使ったRAG環境に発展させる

さらに実用性を高めるなら、ローカル文書を読み込ませて質問できる仕組みを作ります。

これがRAGです。

RAGとは、AIが単独で回答するのではなく、文書やデータベースを検索し、その内容をもとに回答する仕組みです。

源内AIアプリの公式リポジトリでも、AWS向けに行政実務用RAGの開発テンプレートが公開されています。

ローカル環境でRAGを使えば、次のような活用ができます。

PDFマニュアルを読み込ませて質問する
社内規程をもとに回答させる
議案書を要約させる
過去の議事録から論点を抽出する
FAQ文書をもとに回答させる

ただし、RAGは「文書を入れれば必ず正確に答える」仕組みではありません。文書の分割方法、検索精度、プロンプト設計、モデルの性能によって回答品質が変わります。

よくあるエラーと対処法

Open WebUIが開かない

まず、コンテナが起動しているか確認します。

docker ps

open-webuiまたはgennai-localが表示されていなければ、起動できていません。

再起動します。

docker compose up -d

ポート3000が使えない

他のアプリが3000番ポートを使っている可能性があります。

その場合は、docker-compose.ymlのポートを変更します。

ports:
- "3001:8080"

この場合、ブラウザでは次を開きます。

http://localhost:3001

モデルが表示されない

Ollama側にモデルが入っていない可能性があります。

docker exec -it gennai-local ollama list

モデルがなければ追加します。

docker exec -it gennai-local ollama pull llama3.2

回答が遅い

回答が遅い場合は、モデルが重すぎる可能性があります。

対策は次のとおりです。

軽量モデルに変更する
同時に起動しているアプリを閉じる
メモリを増やす
GPU対応環境にする
小さい文書から試す

ローカルAIのメリット

ローカルAIのメリットは大きく3つあります。

API料金がかからない
外部サービスに文章を送信しない
自分の用途に合わせて自由にカスタムできる

特に、業務文書、行政文書、社内資料、議案書、報告書などを扱う場合、外部AIサービスに内容を送らずに処理できる点は大きなメリットです。

ローカルAIのデメリット

一方で、デメリットもあります。

高性能モデルを動かすにはPC性能が必要
クラウドAIより回答精度が低い場合がある
初期設定に手間がかかる
自分で保守管理する必要がある
文書検索の精度調整が必要

「無料で使える」というメリットだけを見るのではなく、運用管理の手間も含めて考える必要があります。

まとめ

源内AIを公式構成のままローカルPCだけで完全無料再現するのは簡単ではありません。

しかし、OllamaとOpen WebUIを使えば、源内AIの考え方を参考にした「源内風ローカルAI環境」は無料で構築できます。

最初に目指すべき構成は次のとおりです。

OllamaでローカルLLMを動かす
Open WebUIでChatGPT風の画面を作る
用途別プロンプトを登録する
ローカル文書を読み込ませる
業務用AIテンプレートを整備する

この流れで構築すれば、API料金をかけずに、社内や個人で使える実用的なAI環境を作ることができます。

公式の源内AIそのものを再現するのではなく、まずは「源内の考え方をローカル環境に取り入れる」ことが、無料で始めるための最も現実的な方法です。

ホーム
掲載依頼
WordPress
スキルアップ
記事カテゴリ
お問い合わせ
Youtube