LLM

LLM

Dockerコンテナ内からホストOSのOllamaにアクセスする設定

DockerコンテナでOllamaを使ってごにょごにょする際に、コンテナ内にLLMをダウンロードするのはリソース消費の都合上やりたくないので、コンテナ内からLLMをストアしているホストOSのOllamaにアクセスするようにしていきます。
LLM

Open WebUI をUbuntuで使えるようにする

前回はUbuntuでOllamaを使えるようにしました。今回はUbuntuでOpen WebUIを使えるようにして、ChatGPTのようにWEB UIでLLMを利用できるようにしていきます。
LLM

OllamaをUbuntuで使えるようにする

今更ですが、ローカルでLLMを実行できるようにするために、無料で使えるOllamaをローカルのUbuntuにインストールしていきます。