[추가] Ollama AI 를 설치 해봤습니다 (ft. Hoarder, groq AI)

[추가] 시놀로지 도커에 hoarder 설치하기[NAS(시놀/헤놀)] 빨간물약 2024.10.03   Hoarder 📦 - 모든 것을 북마크하는 앱[서버 구축(Self-Hosted)] 달소...

얼마전에 북마크 서비스를 설치 했었습니다

며칠 동안 사용을 해보니까 나쁘지않습니다

기능 중에 ai 태그 생성 기능이 있는데

image.png.jpg

기본 적으로 open ai 를 지원하고 호환 가능한 azure open ai와 ollama를 지원 하더라고요

그런데 open ai 무료 플랜은 사용이 안되는 거 같습니다

그럼 로컬로 돌려보자 해서 n100 s12pro에 ollama를 설치 해보기로 했습니다

name: ollama
services:
    ollama:
        volumes:
            - /volume1/docker/ollama:/root/.ollama
        ports:
            - 11434:11434
        container_name: ollama
        image: ollama/ollama:latest
volumes:
    ollama:
        external: true
        name: ollama

복사

설치는 정말 간단

설치는 간단 합니다

docker/ollama 폴더 생성 후 위의 코드로 프로젝트 생성 하면 끝

뭐 따로 설정하고 말고 할 것도 없습니다 gui도 없습니다

어차피 ai 태그 생성용으로 사용 할 거니까 gui필요 없겠죠

gui로 챗 gpt처럼 사용해보고 싶다면 ChatGPT, LocalAI 등을 하나로 통합하기 big-AGI[서버 구축(Self-Hosted)] 달소 2024.04.15  안녕하세요. 달소입니다.   이번에 소개해드릴 오픈소스 프로젝트트

nicknickk 님께서 ...

이런 거 하나 설치 해주시면 됩니다
# Very simple docker-compose file to run the app on http://localhost:3000 (or http://127.0.0.1:3000).
#
# For more examples, such runnin big-AGI alongside a web browsing service, see the `docs/docker` folder.

version: '3.9'

services:
  big-agi:
    image: ghcr.io/enricoros/big-agi:latest
    ports:
      - "3000:3000"
    #env_file:
     # - .env
    command: [ "next", "start", "-p", "3000" ]

복사

이것도 간단
이건 뭐 볼륨 매핑도 필요 없습니다
image.png.jpg
생성 후 아이피:포트로 접속 해서 모델 설정 하실 때 add 버튼 클릭 후 ollama선택
ollama 컨테이너 아이피:포트 넣고 Ollama Admin 버튼 누르고
image.png.jpg
모델 명과 태그 선택 후 Pull 버튼 클릭
모델 종류는
library (ollama.com)
링크에 있습니다
서버 성능이나 사용 목적에 따라 모델을 선택하면 됩니다
어쨌든 설정을 하면
image.png.jpg
로컬ai는 한국어를 좀 하던데....
채팅이 가능 합니다만
뭐 그렇습니다 가벼운 모델 선택해서 해봤는데 n100 서버라 시간도 오래걸리고
서버도 살려달라고 소리 칩니다
image.png.jpg
살려줘....

어쨌든 채팅은 좀 그래도 ai 태그에 쓸 수는 있지 않을까?

했는데...

우선

OLLAMA_BASE_URL=http://192.168.0.2:11434
OLLAMA_KEEP_ALIVE=1m
INFERENCE_TEXT_MODEL: tinydolphin
INFERENCE_IMAGE_MODEL: tinydolphin
INFERENCE_JOB_TIMEOUT_SEC=60

복사

hoarder .env 파일에 위의 코드를 추가 하시면 됩니다

ollama 주소와 선택 한 모델 그리고 AI가 로드 돼있는 시간과 기다리는 시간 등등 설정을 해주시면 됩니다

그 후 hoarder에 북마크를 하면 ai 태그를 생성 합니다

시간이 좀 걸려요...

그런데 태그 내용이 좀 뭔가 중구난방 ai모델을 가벼운 걸 써서 그런지 아니면 적당한 모델이 아닌지 모르겠지만

image.png.jpg

hoarder 설정에서 프롬프트도 설정을 해봅니다

뭔가 좀 많이 모자랍니다...

자원도 많이 먹습니다...

호기심에 테스트 해보긴 해봤지만 실사용은 좀 힘들다 라는 생각이 듭니다

결론은 그냥 open ai 결제해서 쓰는 게 좋다

ai 태그 만드는 것도 오래 걸리는데 다 이상해서 지우는데도 시간이 들어가니

그냥 끄고 쓰거나 open ai 결제 후 사용 하시길 바랍니다...

참고로 그래픽 카드가 설치 돼있는 서버를 사용 하시는 분들은 한 번쯤 시도 해보셔도 좋을 거 같습니다

저는 n100 모델이라 cpu온리 버전을 설치 했습니다

-추가-

grog free tier도 가능할 거 같다는 댓글을 참고해서 테스트 해봤습니다

Groq is Fast AI Inference

image.png.jpg
image.png.jpg
image.png.jpg

기본 가격과 사용량 제한

토큰 형식으로 사용 가능한 요금제 입니다

프리티어로 어느 정도 사용 가능할지는 모르겠지만 작동은 잘 되네요

OPENAI_API_KEY=groq API키 값
INFERENCE_TEXT_MODEL: llama-3.2-11b-vision-preview
INFERENCE_IMAGE_MODEL: llama-3.2-11b-vision-preview
OPENAI_BASE_URL=https://api.groq.com/openai/v1

복사

hoarder의 .env 파일에 위와 같이 추가 해주시고 빌드 하시면 됩니다

image.png.jpg

이 게시물을 북마크 했을 때 자동 생성 된 태그 입니다 잘 되네요

image.png.jpg

태그 1회 생성시 토큰 사용량은 이렇습니다

일일 50만 토큰 사용 가능한 거 같은데 1회 1000토큰 정도 사용하니까

대략 하루에 500번 정도 쓸 수 있을 거 같습니다만

페이지 내용에 따라 500~3000 까지도 왔다갔다 하는 거 감안하면

넉넉하게 잡았을 때 하루에 2~300번 정도 가능하지 않을까 싶습니다

혼자서 그냥 쓰기에는 딱 좋은 거 같네요

Read more

시놀로지 도커에 openclaw 설치하기

오픈클로를 도커에 설치하는 방법을 문의하신 분이 계셔서 작성 해봅니다 현재 오픈클로는 나온지 얼마 안됐고 계속 업데이트가 되고 있는 상황이기 때문에 설치 방법이 달라질 수 있습니다 Docker - OpenClaw https://docs.openclaw.ai/install/docker 제 개인적인 의견은 공식 문서를 참고하시는 걸 추천 드립니다 우선 시놀로지에 설치 하기 위해서는 패키지 센터에서

By 빨간물약

GLM-5 모델 출시와 함께 가격인상

https://svrforum.com/software/2992940 얼마 전에 위 링크 글을 통해 1년 4만원 결제로 상급 모델 사용이 가능하다고 알려드렸던 GLM에서 5버전 출시와 함께 가격 인상을 한다는 이메일이 왔네요 다행히 기존에 이미 사용하는 사람들은 상관 없다고 합니다 내용은 11일 부터 인상이라는데 시차 때문인지 아직 할인된 가격이 적용 되는 거 같습니다 사용을

By 빨간물약

Openclaw를 시놀로지 도커에 설치 해봤습니다

wtr pro n100 네이티브 헤놀에 설치 했습니다 (꺼져있는 CLI 컨테이너는 CLI 접속 시에만 동작 합니다) 어차피 api를 사용하니 도커도 괜찮겠다 싶어서 시도 해봤는데 간단한 문답은 자원 소모가 거의 없네요 텔레그램과 대시보드도 잘 되고 SSH 접속을 통한 CLI 설정도 잘 됩니다 GLM-4.7 API를 사용하는 거라 일반적인 대화 성능은 맥미니랑 크게

By 빨간물약