반응형
개인적으로 local LLM에 관심이 있어 여러가지 상황에서 이용해보고 있다.
Ollama를 이용해 LLM모델을 사용하는데, 터미널에서 질문하고 답변을 듣는것은 여러가지 불편한점이 있어 UI환경에서 Ollama를 이용할 수 있는 서비스를 찾아보았고, Ollamac이라는 서비스를 발견했다.
https://github.com/kevinhermawan/Ollamac
GitHub - kevinhermawan/Ollamac: Mac app for Ollama
Mac app for Ollama. Contribute to kevinhermawan/Ollamac development by creating an account on GitHub.
github.com
Ollamac 앱을 이용하면 데스크탑 앱(UI환경)으로 LLM모델을 이용할 수 있고, 여러 설정을 할 수 있다.
반응형
'프로젝트' 카테고리의 다른 글
로컬 LLM을 더 적극적으로 사용해보자 (Open WebUI + DeepSeek) (0) | 2025.02.06 |
---|---|
VSCode에서 Llama2를 실행해보자! (2) | 2024.04.11 |
맥북에서 LLM을 실행해보자! (Llama2, Ollama) (1) | 2024.03.29 |
[React Native] component shaker 라이브러리를 만들었다 (0) | 2024.03.08 |
[아쿠쿠아] v1.4.0 출시! (4) | 2024.02.25 |