OllamaをUbuntuで使えるようにする

LLM

今更ですが、ローカルでLLMを実行できるようにするために、無料で使えるOllamaをローカルのUbuntuにインストールしていきます。

Ollama
Get up and running with large language models.

この記事のゴール

  • OllamaをUbuntuにインストールして使えるようにする
  • LLMを実行する

環境情報

  • Ubuntu24.04.2 LTS(WSL2 on Windows11)
  • プロセッサ:AMD Ryzen 7 7730U with Radeon Graphics 2.00 GHz
  • 実装RAM:16.0 GB (15.4 GB 使用可能)
  • システムの種類:64 bit OS、x64 ベース プロセッサ
  • GPU:AMD Radeon (TM) Graphics 512MB / 共有7.7GB

Ollamaダウンロード

ollamaのLinux用インストーラーシェルスクリプトをダウンロードします。

wget https://ollama.com/install.sh

インストーラーを実行します。

bash install.sh

sudo権限を求められるので、パスワードを入力するとインストールが続行されます。

「ollama」がサービス登録され起動されたので、状態を確認してみます。

systemctl status ollama

インストールされた「ollama」のバージョンを確認してみます。

ollama --version

利用可能な言語モデル

ollamaで利用可能な言語モデルは次のURLで探すことができます。(コマンドで見れればいいのに)

Ollama Search
Search for models on Ollama.

今回は、サイズの小さい「llama3.1:8b」を使ってみます。

llama3.1:8b
Llama 3.1 is a new state-of-the-art model from Meta available in 8B, 70B and 405B parameter sizes.
ollama run llama3.1:8b

モデルのダウンロードが完了したら、LLMのプロンプトが表示されます。

簡単な質問をしてみます。

日本語を解釈して日本語で返答が返ってきました。

ヘルプを表示してみます。

/?

終了するには「/bye」と入力すれば良いようです。

/bye

やっぱり、ローカルLLMはハイスペックな専用マシンを用意したいところですね。

でもそこまでいくなら、初期費用+ランニングコスト(電気代+空間維持費)で考えると、

使い方次第ですがClaude Max $200/月の方がコスパは良いのかもしれません。。

次回は、Open WebUI を使えるようにしていきます。

参考サイト

第825回 ローカルLLMの実行ツールであるOllamaをUbuntuで動かす | gihyo.jp
今回はLLMのうち個人でも利用可能で軽量なモデルの入門として、まずはUbuntu上で動かす方法について紹介します。LLMの実行環境としてOllamaを使い、Llama 3.1やGemma 2を動かしてみましょう。

コメント

タイトルとURLをコピーしました