前回はUbuntuでOllamaを使えるようにしました。今回はUbuntuでOpen WebUIを使えるようにして、ChatGPTのようにWEB UIでLLMを利用できるようにしていきます。
GitHub - open-webui/open-webui: User-friendly AI Interface (Supports Ollama, OpenAI API, ...)
User-friendly AI Interface (Supports Ollama, OpenAI API, ...) - open-webui/open-webui
この記事のゴール
- Ubuntu上でOpen WebUIを使えるようにする
- 複数のLLMを切り替えて使用できるようにする
- チャット履歴を保存できるようにする
前提条件
- Ubuntu24.04.2 LTS (WSL2 on Windows11)
- Ollamaインストール済
- Dockerインストール済

OllamaをUbuntuで使えるようにする
今更ですが、ローカルでLLMを実行できるようにするために、無料で使えるOllamaをローカルのUbuntuにインストールしていきます。
環境情報
- Ubuntu24.04.2 LTS(WSL2 on Windows11)
- プロセッサ:AMD Ryzen 7 7730U with Radeon Graphics 2.00 GHz
- 実装RAM:16.0 GB (15.4 GB 使用可能)
- システムの種類:64 bit OS、x64 ベース プロセッサ
- GPU:AMD Radeon (TM) Graphics 512MB / 共有7.7GB
NVIDIAではありません
目標構成
- DockerコンテナとしてOpen WebUIを構築、起動する
- Open WebUI側から、Ubuntu(WSL2)側のollamaへ接続できるようにする
Dockerイメージ起動
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
※ボリューム設定により、チャット履歴が永続化されるようになっています。

コンテナが起動されており、ポート番号3000番が解放されていることが判ります。

WEBブラウザで動作確認
WEBブラウザで http://localhost:3000/ にアクセスしてみます。
「開始」の上の右矢印をクリックします。

「名前」、「メールアドレス」、「パスワード」を入力して「管理者アカウントを作成」ボタンを押下します。

「OK、始めましょう!」ボタンを押下します。

見慣れた画面が表示されました。

簡単に挨拶してみます。

「町田市領土問題」について尋ねてみます。


これはいけませんね。
では、画面左上の新しいチャットをクリックしてみます。

画面左上のプルダウンから、「llama3.1:8b」を選択します。
※事前に「ollama pull llama3.1:8b」でLLMをインストールしています。

まずは挨拶から。

「町田市領土問題」について尋ねてみます。

さすがです。
これらのチャット履歴は、左サイドメニューに一覧として表示されています。

右上のユーザーアイコンから「サインアウト」しても、再度サインインしなおせば、チャット履歴は保持されていることが判ります。

参考サイト

第825回 ローカルLLMの実行ツールであるOllamaをUbuntuで動かす | gihyo.jp
今回はLLMのうち個人でも利用可能で軽量なモデルの入門として、まずはUbuntu上で動かす方法について紹介します。LLMの実行環境としてOllamaを使い、Llama 3.1やGemma 2を動かしてみましょう。
🏡 Home | Open WebUI
Open WebUI is an extensible, feature-rich, and user-friendly self-hosted AI platform designed to operate entirely offlin...
コメント