Life Logs && *Timeline

  • 우분투에 Ollama 설치하는 법

    가장 간단한 방법은 공식 설치 스크립트를 사용하는 것입니다.

    1. 시스템 업데이트

    먼저 시스템을 최신 상태로 업데이트합니다:

    sudo apt update
    sudo apt upgrade -y
    sudo reboot

    2. Ollama 설치

    Ollama 공식 설치 스크립트를 실행합니다[1][2]:

    curl -fsSL https://ollama.com/install.sh | sh

    설치가 완료되면 다음과 같은 메시지가 표시됩니다[1]:

    >>> Installing ollama to /usr/local
    >>> Downloading Linux amd64 bundle
    >>> Creating ollama user...
    >>> Adding ollama user to render group...
    >>> Adding ollama user to video group...
    >>> Adding current user to ollama group...
    >>> Creating ollama systemd service...
    >>> Enabling and starting ollama service...
    >>> The Ollama API is now available at 127.0.0.1:11434.
    >>> Install complete. Run "ollama" from the command line.

    3. 설치 확인

    설치가 정상적으로 완료되었는지 확인합니다[3]:

    ollama --version

    또는 기본 명령어 도움말을 확인합니다[3]:

    ollama --help

    4. 서비스 상태 확인

    Ollama 서비스가 정상적으로 실행 중인지 확인합니다[4]:

    sudo systemctl status ollama

    필요시 서비스를 시작하거나 재시작할 수 있습니다[4]:

    sudo systemctl start ollama
    sudo systemctl restart ollama
    sudo systemctl enable ollama

    5. 첫 모델 실행

    설치 후 첫 AI 모델을 다운로드하고 실행해보겠습니다[3][5]:

    # Llama3 모델 실행 (자동 다운로드됩니다)
    ollama run llama3

    또는 다른 모델을 선택할 수 있습니다[6]:

    # 모델 다운로드만
    ollama pull llama3.1
    
    # 모델 실행
    ollama run llama3.1

    6. 기본 명령어

    설치된 모델 확인[4]:

    ollama list

    실행 중인 모델 확인[4]:

    ollama ps

    모델 삭제[4]:

    ollama rm [모델명]

    7. 외부 접속 설정 (선택사항)

    기본적으로 Ollama는 localhost(127.0.0.1)에서만 접속이 가능합니다. 외부에서 접속하려면 다음과 같이 설정합니다[7][8]:

    systemd 서비스 파일을 수정합니다:

    sudo nano /etc/systemd/system/ollama.service

    [Service] 섹션에 다음 환경변수를 추가합니다[7][4]:

    [Service]
    Environment="OLLAMA_HOST=0.0.0.0"

    변경사항을 적용합니다[7]:

    sudo systemctl daemon-reload
    sudo systemctl restart ollama

    8. 브라우저에서 확인

    설치가 완료되면 브라우저에서 http://localhost:11434로 접속하여 “Ollama is running” 메시지가 표시되는지 확인할 수 있습니다[9].

    API 사용

    Ollama는 REST API도 제공합니다[8]. 기본적으로 http://localhost:11434에서 API 서버가 실행됩니다:

    # 텍스트 생성 API 테스트
    curl http://localhost:11434/api/generate -d '{
      "model": "llama3",
      "prompt": "안녕하세요!"
    }'

    이제 우분투에서 Ollama를 사용하여 로컬 환경에서 대형 언어 모델을 실행할 준비가 완료되었습니다!

    출처
    [1] Ollama 설치 및 설정 https://docs.iwinv.kr/reference/llm/llm-install
    [2] A Comprehensive Guide to Ollama Local Installation – Collabnix https://collabnix.com/a-comprehensive-guide-to-ollama-local-installation/
    [3] ollama 우분투 22.04에 설치 하기 – C.B.W https://cbwstar.tistory.com/entry/ollama-%EC%9A%B0%EB%B6%84%ED%88%AC-2204%EC%97%90-%EC%84%A4%EC%B9%98-%ED%95%98%EA%B8%B0
    [4] 14-01 Ollama – 숏텀 리눅스 – 위키독스 https://wikidocs.net/268941
    [5] ollama를 통해 linux ubuntu에서 간단히 llama3를 돌려보자. https://infoengineer.tistory.com/135
    [6] [LLM] ollama 사용하기 https://didi-universe.tistory.com/entry/LLM-ollama-%EC%82%AC%EC%9A%A9%ED%95%98%EA%B8%B0
    [7] Ollama 서버에 외부에서 접속하는 방법: OS별 가이드 – Practical.kr http://practical.kr/?p=809
    [8] Ollama – 01. 설치 및 기본 사용 https://recording-it.tistory.com/115
    [9] Install and Use Ollama and Llama 3.1 LLM in Linux Ubuntu from … https://www.youtube.com/watch?v=91npmOxCL-c
    [10] Ultimate Local AI Setup Guide: Ubuntu, Ollama, & Open WebUI https://www.robwillis.info/2025/05/ultimate-local-ai-setup-guide-ubuntu-ollama-open-webui/
    [11] Step-by-Step Guide to Installing Ollama on Linux – Arsturn https://www.arsturn.com/blog/step-by-step-guide-to-installing-ollama-on-linux
    [12] Ollama 설치 및 생성형 AI 배포 https://nginxstore.com/blog/ai/ollama-%EC%84%A4%EC%B9%98-%EB%B0%8F-%EC%83%9D%EC%84%B1%ED%98%95-ai-%EB%B0%B0%ED%8F%AC/
    [13] How to install Ollama on Linux (2 easy methods) – Hostinger https://www.hostinger.com/tutorials/how-to-install-ollama
    [14] Ollama 설치와 운영 : 로컬 환경에서 대규모 언어 모델을 쉽게 실행하기 https://blog.oriang.net/68
    [15] Running AI Locally Using Ollama on Ubuntu Linux – It’s FOSS https://itsfoss.com/ollama-setup-linux/
    [16] Ollama 설치 및 첫 실행: macOS, Linux, Windows별 가이드 – the Basics https://bcuts.tistory.com/285
    [17] Download Ollama on Linux https://ollama.com/download
    [18] open web-UI + ollama 설치하기 – techjunseok – 티스토리 https://techjs.tistory.com/6
    [19] Getting Started with Llama 3.3 on Ubuntu Linux with Ollama https://apxml.com/posts/llama-3-3-with-ollama-ubuntu
    [20] Ollama를 이용해서 llama3.1 8B(양자화 모델)을 리눅스 서버에서 사용 … https://uni-datastudy.tistory.com/81
    [21] [Ubuntu 20.04] Ollama 및 GUI 설치하기 – Trikang – 티스토리 https://yskang.tistory.com/58
    [22] [Llama3] Ollama와 Llama-Index로 Llama3 쉽게 시작하기(ubuntu) https://brain-nim.tistory.com/141
    [23] Ollama란? Ollama 사용법: 내 PC에서 무료로 LLM 실행하기 https://www.developerfastlane.com/blog/ollama-usage-guide
    [24] Ollama 외부 접근 on Mac – Project Jo – 티스토리 https://projectjo.tistory.com/entry/Llama-31-%EB%82%B4%EC%9A%A9-%EC%9A%94%EC%95%BD
    [25] Ollama 설치 방법: 초보자도 따라할 수 있는 가이드 (deepseek-r1 로컬 … https://coding-kindergarten.tistory.com/245
    [26] Ollama 사용법: Ollama를 이용한 로컬 LLM 완전 초보 가이드 – Apidog https://apidog.com/kr/blog/how-to-use-ollama-kr/
    [27] Ollama 설치 및 기본 사용법 (로컬 LLM 실행하기) – TwentyTwentyOne https://twentytwentyone.tistory.com/447
    [28] 맥 ollama api 외부 오픈 https://myinbox.tistory.com/254
    [29] 오픈소스 AI 코딩 보조 도구 – Ollama + Codestral 사용후기 https://blog.taehun.dev/ollama-codestral
    [30] Windows에서 Ollama API 서버 설정 및 외부 접속 허용 https://growth-coder.tistory.com/354
    [31] 3-1-1. 올라마(Ollama) 설치 – 랭체인(LangChain) 입문부터 응용까지 https://wikidocs.net/238530
    [32] 로컬 환경에서 API 호스팅을 위한 Ollama 설정 종합 가이드 – 메모리허브 https://memoryhub.tistory.com/entry/%EB%A1%9C%EC%BB%AC-%ED%99%98%EA%B2%BD%EC%97%90%EC%84%9C-API-%ED%98%B8%EC%8A%A4%ED%8C%85%EC%9D%84-%EC%9C%84%ED%95%9C-Ollama-%EC%84%A4%EC%A0%95-%EC%A2%85%ED%95%A9-%EA%B0%80%EC%9D%B4%EB%93%9C
    [33] WSL2 Ububtu에 ollama/deepseek 설치 및 실행 – 가끔 보자, 하늘. https://ongamedev.tistory.com/607
    [34] Ollama 설치 및 기초 사용방법 (feat 로컬 LLM 환경 구축해보기) – 갓대희 https://goddaehee.tistory.com/381
    [35] [Ollama] Linux 라마 설치 방법 – min.dev – 티스토리 https://miiniu.tistory.com/161