はじめに
近年、AI 技術の進化に伴い、開発者やエンジニアにとってAI ツールの活用はますます重要になっています。
その中でも Ollama は、自然言語処理を行う環境を簡単に構築するツールとして注目されています。
本記事では、Ubuntu 24.04 へ Ollama をインストールする方法、
およびアンインストールする手順を記載します。
Ollamaとは
Ollama は、自然言語処理の環境構築を支援するために開発されたオープンソースのツールです。
特に生成型 AI の分野で有名で、データ分析、文章生成、翻訳など、多岐にわたるモデルに対応しています。
シンプルで直感的なインターフェースと柔軟なカスタマイズ性により、
初心者から上級者まで幅広いユーザーに利用されています。
インストール
① Ollama のインストール
公式のインストールスクリプトを利用します。
command
$ wget https://ollama.ai/install.sh
$ sh ./install.sh
1 2 3 4 5 6 7 8 9 10 11 12 13 14 |
>>> Installing ollama to /usr/local >>> Downloading Linux amd64 bundle ###################################################################### 100.0% >>> Creating ollama user... >>> Adding ollama user to render group... >>> Adding ollama user to video group... >>> Adding current user to ollama group... >>> Creating ollama systemd service... >>> Enabling and starting ollama service... Created symlink /etc/systemd/system/default.target.wants/ollama.service → /etc/systemd/system/ollama.service. >>> The Ollama API is now available at 127.0.0.1:11434. >>> Install complete. Run "ollama" from the command line. WARNING: No NVIDIA/AMD GPU detected. Ollama will run in CPU-only mode. |
②サービスステータスの確認
command
$ sudo systemctl status ollama
1 2 3 4 5 6 7 8 9 10 11 12 13 |
$ sudo systemctl status ollama ● ollama.service - Ollama Service Loaded: loaded (/etc/systemd/system/ollama.service; enabled; preset: enabled) Drop-In: /etc/systemd/system/ollama.service.d └─override.conf Active: active (running) since Tue 2024-10-29 13:53:09 UTC; 1min 4s ago Main PID: 28713 (ollama) Tasks: 11 (limit: 4594) Memory: 1.8G (peak: 1.8G) CPU: 31.317s CGroup: /system.slice/ollama.service └─28713 /usr/local/bin/ollama serve |
③外部からの接続を許可
デフォルトで Ollama の Lisetn アドレスは 127.0.0.1 のみとなっており、外部から接続できません。
command
$ sudo ss -napt | grep ollama
LISTEN 0 4096 127.0.0.1:11434 0.0.0.0:* users:(("ollama",pid=5449,fd=3))
以下のように .service ファイルに OLLAMA_HOST を追記し、
OLLAMA_ORIGINS を使用してアクセス制限を設定します。
/etc/systemd/system/ollama.service
$ sudo systemctl edit ollama.service
[Service]
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=192.168.*,172.*"
設定後、サービスを再起動して確認します。
command
$ sudo systemctl restart ollama.service
$ sudo ss -napt | grep ollama
LISTEN 0 4096 *:11434 *:* users:(("ollama",pid=5548,fd=3))
④モデルのインストール
例として Llama3 の 8B モデルをダウンロードしてみます。

command
$ ollama pull llama3:8b
1 2 3 4 5 6 7 8 9 10 |
pulling manifest pulling 6a0746a1ec1a... 100% ▕███████████████████████████████▏ 4.7 GB pulling 4fa551d4f938... 100% ▕███████████████████████████████▏ 12 KB pulling 8ab4849b038c... 100% ▕███████████████████████████████▏ 254 B pulling 577073ffcc6c... 100% ▕███████████████████████████████▏ 110 B pulling 3f8eb4da87fa... 100% ▕███████████████████████████████▏ 485 B verifying sha256 digest writing manifest success |
⑤モデルの実行
command
$ ollama run llama3:8b
>>> Send a message (/? for help)
>>> Hello
Hello! It's nice to meet you. Is there something I can help you with, or would you like to chat?

アンインストール
以下のコマンドを実行してアンインストールすることができます。
command
# サービスの削除
$ sudo systemctl stop ollama
$ sudo systemctl disable ollama
$ sudo rm /etc/systemd/system/ollama.service
# プログラムの削除
$ sudo rm $(which ollama)
$ sudo rm -r /usr/share/ollama
# ユーザとグループの削除
$ sudo userdel ollama
$ sudo groupdel ollama
おわりに
本記事では、Ubuntu 24.04 へ Ollama をインストール、アンインストール方法について記載しました。
Ollama は、自然言語処理の可能性を広げる強力なツールです。
正確な手順でセットアップして活用することで、AI の凄さを体感できると思います。
さらに、不要になった場合でも簡単にアンインストールできるため、
安心してお試しできます。
ぜひこの記事を参考に、Ollama を活用した新しい可能性を探求してみてください!