Ollama

LLM

Dockerコンテナ内からホストOSのOllamaにアクセスする設定

DockerコンテナでOllamaを使ってごにょごにょする際に、コンテナ内にLLMをダウンロードするのはリソース消費の都合上やりたくないので、コンテナ内からLLMをストアしているホストOSのOllamaにアクセスするようにしていきます。
Laravel

【Laravel12】AI Chat Starter Kitを使ってみた

久々のLaravelネタですが、Laravel Newsで紹介されていた AI Chat Starter Kitが面白そうなので使ってみました。
LLM

OllamaをUbuntuで使えるようにする

今更ですが、ローカルでLLMを実行できるようにするために、無料で使えるOllamaをローカルのUbuntuにインストールしていきます。