가장 간단한 방법은 공식 설치 스크립트를 사용하는 것입니다.
1. 시스템 업데이트
먼저 시스템을 최신 상태로 업데이트합니다:
sudo apt update
sudo apt upgrade -y
sudo reboot
2. Ollama 설치
Ollama 공식 설치 스크립트를 실행합니다[1][2]:
curl -fsSL https://ollama.com/install.sh | sh
설치가 완료되면 다음과 같은 메시지가 표시됩니다[1]:
>>> Installing ollama to /usr/local
>>> Downloading Linux amd64 bundle
>>> Creating ollama user...
>>> Adding ollama user to render group...
>>> Adding ollama user to video group...
>>> Adding current user to ollama group...
>>> Creating ollama systemd service...
>>> Enabling and starting ollama service...
>>> The Ollama API is now available at 127.0.0.1:11434.
>>> Install complete. Run "ollama" from the command line.
3. 설치 확인
설치가 정상적으로 완료되었는지 확인합니다[3]:
ollama --version
또는 기본 명령어 도움말을 확인합니다[3]:
ollama --help
4. 서비스 상태 확인
Ollama 서비스가 정상적으로 실행 중인지 확인합니다[4]:
sudo systemctl status ollama
필요시 서비스를 시작하거나 재시작할 수 있습니다[4]:
sudo systemctl start ollama
sudo systemctl restart ollama
sudo systemctl enable ollama
5. 첫 모델 실행
설치 후 첫 AI 모델을 다운로드하고 실행해보겠습니다[3][5]:
# Llama3 모델 실행 (자동 다운로드됩니다)
ollama run llama3
또는 다른 모델을 선택할 수 있습니다[6]:
# 모델 다운로드만
ollama pull llama3.1
# 모델 실행
ollama run llama3.1
6. 기본 명령어
설치된 모델 확인[4]:
ollama list
실행 중인 모델 확인[4]:
ollama ps
모델 삭제[4]:
ollama rm [모델명]
7. 외부 접속 설정 (선택사항)
기본적으로 Ollama는 localhost(127.0.0.1)에서만 접속이 가능합니다. 외부에서 접속하려면 다음과 같이 설정합니다[7][8]:
systemd 서비스 파일을 수정합니다:
sudo nano /etc/systemd/system/ollama.service
[Service]
섹션에 다음 환경변수를 추가합니다[7][4]:
[Service]
Environment="OLLAMA_HOST=0.0.0.0"
변경사항을 적용합니다[7]:
sudo systemctl daemon-reload
sudo systemctl restart ollama
8. 브라우저에서 확인
설치가 완료되면 브라우저에서 http://localhost:11434
로 접속하여 “Ollama is running” 메시지가 표시되는지 확인할 수 있습니다[9].
API 사용
Ollama는 REST API도 제공합니다[8]. 기본적으로 http://localhost:11434
에서 API 서버가 실행됩니다:
# 텍스트 생성 API 테스트
curl http://localhost:11434/api/generate -d '{
"model": "llama3",
"prompt": "안녕하세요!"
}'
이제 우분투에서 Ollama를 사용하여 로컬 환경에서 대형 언어 모델을 실행할 준비가 완료되었습니다!
출처
[1] Ollama 설치 및 설정 https://docs.iwinv.kr/reference/llm/llm-install
[2] A Comprehensive Guide to Ollama Local Installation – Collabnix https://collabnix.com/a-comprehensive-guide-to-ollama-local-installation/
[3] ollama 우분투 22.04에 설치 하기 – C.B.W https://cbwstar.tistory.com/entry/ollama-%EC%9A%B0%EB%B6%84%ED%88%AC-2204%EC%97%90-%EC%84%A4%EC%B9%98-%ED%95%98%EA%B8%B0
[4] 14-01 Ollama – 숏텀 리눅스 – 위키독스 https://wikidocs.net/268941
[5] ollama를 통해 linux ubuntu에서 간단히 llama3를 돌려보자. https://infoengineer.tistory.com/135
[6] [LLM] ollama 사용하기 https://didi-universe.tistory.com/entry/LLM-ollama-%EC%82%AC%EC%9A%A9%ED%95%98%EA%B8%B0
[7] Ollama 서버에 외부에서 접속하는 방법: OS별 가이드 – Practical.kr http://practical.kr/?p=809
[8] Ollama – 01. 설치 및 기본 사용 https://recording-it.tistory.com/115
[9] Install and Use Ollama and Llama 3.1 LLM in Linux Ubuntu from … https://www.youtube.com/watch?v=91npmOxCL-c
[10] Ultimate Local AI Setup Guide: Ubuntu, Ollama, & Open WebUI https://www.robwillis.info/2025/05/ultimate-local-ai-setup-guide-ubuntu-ollama-open-webui/
[11] Step-by-Step Guide to Installing Ollama on Linux – Arsturn https://www.arsturn.com/blog/step-by-step-guide-to-installing-ollama-on-linux
[12] Ollama 설치 및 생성형 AI 배포 https://nginxstore.com/blog/ai/ollama-%EC%84%A4%EC%B9%98-%EB%B0%8F-%EC%83%9D%EC%84%B1%ED%98%95-ai-%EB%B0%B0%ED%8F%AC/
[13] How to install Ollama on Linux (2 easy methods) – Hostinger https://www.hostinger.com/tutorials/how-to-install-ollama
[14] Ollama 설치와 운영 : 로컬 환경에서 대규모 언어 모델을 쉽게 실행하기 https://blog.oriang.net/68
[15] Running AI Locally Using Ollama on Ubuntu Linux – It’s FOSS https://itsfoss.com/ollama-setup-linux/
[16] Ollama 설치 및 첫 실행: macOS, Linux, Windows별 가이드 – the Basics https://bcuts.tistory.com/285
[17] Download Ollama on Linux https://ollama.com/download
[18] open web-UI + ollama 설치하기 – techjunseok – 티스토리 https://techjs.tistory.com/6
[19] Getting Started with Llama 3.3 on Ubuntu Linux with Ollama https://apxml.com/posts/llama-3-3-with-ollama-ubuntu
[20] Ollama를 이용해서 llama3.1 8B(양자화 모델)을 리눅스 서버에서 사용 … https://uni-datastudy.tistory.com/81
[21] [Ubuntu 20.04] Ollama 및 GUI 설치하기 – Trikang – 티스토리 https://yskang.tistory.com/58
[22] [Llama3] Ollama와 Llama-Index로 Llama3 쉽게 시작하기(ubuntu) https://brain-nim.tistory.com/141
[23] Ollama란? Ollama 사용법: 내 PC에서 무료로 LLM 실행하기 https://www.developerfastlane.com/blog/ollama-usage-guide
[24] Ollama 외부 접근 on Mac – Project Jo – 티스토리 https://projectjo.tistory.com/entry/Llama-31-%EB%82%B4%EC%9A%A9-%EC%9A%94%EC%95%BD
[25] Ollama 설치 방법: 초보자도 따라할 수 있는 가이드 (deepseek-r1 로컬 … https://coding-kindergarten.tistory.com/245
[26] Ollama 사용법: Ollama를 이용한 로컬 LLM 완전 초보 가이드 – Apidog https://apidog.com/kr/blog/how-to-use-ollama-kr/
[27] Ollama 설치 및 기본 사용법 (로컬 LLM 실행하기) – TwentyTwentyOne https://twentytwentyone.tistory.com/447
[28] 맥 ollama api 외부 오픈 https://myinbox.tistory.com/254
[29] 오픈소스 AI 코딩 보조 도구 – Ollama + Codestral 사용후기 https://blog.taehun.dev/ollama-codestral
[30] Windows에서 Ollama API 서버 설정 및 외부 접속 허용 https://growth-coder.tistory.com/354
[31] 3-1-1. 올라마(Ollama) 설치 – 랭체인(LangChain) 입문부터 응용까지 https://wikidocs.net/238530
[32] 로컬 환경에서 API 호스팅을 위한 Ollama 설정 종합 가이드 – 메모리허브 https://memoryhub.tistory.com/entry/%EB%A1%9C%EC%BB%AC-%ED%99%98%EA%B2%BD%EC%97%90%EC%84%9C-API-%ED%98%B8%EC%8A%A4%ED%8C%85%EC%9D%84-%EC%9C%84%ED%95%9C-Ollama-%EC%84%A4%EC%A0%95-%EC%A2%85%ED%95%A9-%EA%B0%80%EC%9D%B4%EB%93%9C
[33] WSL2 Ububtu에 ollama/deepseek 설치 및 실행 – 가끔 보자, 하늘. https://ongamedev.tistory.com/607
[34] Ollama 설치 및 기초 사용방법 (feat 로컬 LLM 환경 구축해보기) – 갓대희 https://goddaehee.tistory.com/381
[35] [Ollama] Linux 라마 설치 방법 – min.dev – 티스토리 https://miiniu.tistory.com/161
답글 남기기