"맥북에서 LLM을 실행해보자! (Llama2, Ollama)"글의 다음편 입니다.
https://w-storage.tistory.com/53
맥북에서 LLM을 실행해보자! (Llama2, Ollama)
1. 개요 바야흐로 LLM(Large language model) 전성시대이다. 하루가 멀다하고 여러 LLM이 등장하고 있으며 이를 통해 생산성이 크게 향상되고 있다. 유명한 LLM으로는 GPT, Gemini, Claude등이 있는데, 이런 서
w-storage.tistory.com
1. 개요
지난번 local LLM을 설치해보고, 실행해 보았다.
이번엔 Llama2모델을 VSCode와 연동해서 Copilot처럼 실행해보는 방법을 알아보았다.
2. VSCode 확장 프로그램 설치
여러 프로그램이 있지만 그 중 continue를 사용해보았다.
그리고, 사용할 모델을 추가해준다.
모델은 pc사양에 맞게 선택해주면 된다.
3. 원하는 코드 작성하기
원하는 곳에 커서를 두고, command + I를 눌렀을 때 나오는 커멘드창에 원하는 내용을 입력하면 코드를 작성해준다!
작성이 완료되면 위의 메뉴(Accept All, Reject All...)중 원하는 메뉴를 눌러 확정지으면 된다.
4. 오류 해결하기
예를들어, 코드를 이렇게 작성했다.
const num1 = 10
console.log(num1 + num2) // num2를 선언하지 않음!
이럴 때 원하는 부분을 선택한 뒤 continue에서 원하는 메뉴를 선택하면 된다.
"Add Highlighted Code to Context"를 선택하면 continue대화창에 코드 정보가 표시된다. 여기에서 문제를 물어보면 된다.
"Fix this Code"를 선택하면 알아서 코드를 수정해준다. 수정된 코드를 확인한 뒤, Accept, Reject를 선택하면 된다.
5. 마무리
LLM을 사용하면 확실히 생산성이 올라간다. 하지만 코드가 타 서버에 저장된다는 점에서 걱정되는 부분들이 존재한다.
local에서 LLM모델을 사용하게 됨으로써 걱정했던 부분들을 해결함과 동시에 생산성을 높게 유지할 수 있게 되었다!
'프로젝트' 카테고리의 다른 글
로컬 LLM을 더 적극적으로 사용해보자 (Open WebUI + DeepSeek) (0) | 2025.02.06 |
---|---|
UI환경에서 Ollama를 이용해보자 - Ollamac (0) | 2024.11.10 |
맥북에서 LLM을 실행해보자! (Llama2, Ollama) (1) | 2024.03.29 |
[React Native] component shaker 라이브러리를 만들었다 (0) | 2024.03.08 |
[아쿠쿠아] v1.4.0 출시! (4) | 2024.02.25 |